Baidu, 최대 260 개의 탑으로 IA 쿤룬 칩 개발 완료
차례:
바이두 는 인공 지능 (AI) 가속기의 붐비는 공간으로 진입하고 있습니다. 이 회사는 150W에서 최대 260 개의 TOPS를 제공하는 Kunlun 칩의 개발을 완료했다고 발표했다. 이 칩은 내년 초 삼성의 14nm 공정에서 생산 될 예정이며 HBM의 2.5D 패키지가 포함되어있다.
AI 계산에서 150W에서 최대 260 개의 TOPS를 제공하는 Baidu Kunlun
Kunlun은 신경망 프로세서를위한 Baidu의 XPU 아키텍처를 기반으로합니다. 이 칩은 150W에서 260 개의 TOPS 가 가능하며 대역폭은 512GB / s입니다. Baidu는 칩이 클라우드 컴퓨팅 및 과학 용으로 개발되었지만 회사가 에지 변형에 대한 사양을 제공하지는 않았지만 (일반적으로 TDP가 훨씬 낮음).
Baidu는 Kunlun이 자연어 처리 모델에서 기존의 (지정되지 않은) FPGA / GPU 시스템 보다 3 배 빠르다고 주장 하지만, 다른 AI 워크로드도 지원하지만, 그렇지 않다고 말합니다. 칩이 훈련을 할 수 있는지 또는 훈련을위한 것인지를 알려줍니다.
삼성은 32GB의 HBM2 메모리를 통합하기 위해 I-Cube 인터 포저를 기반으로 14nm 2.5D 공정에서 내년 초에 생산 될 예정인 Baidu 용 칩을 제조 할 예정이다.
시장에 나와있는 최고의 프로세서에 대한 가이드를 방문하십시오
삼성 전자의 제조 마케팅 담당 부사장 Ryan Lee에 따르면이 칩은이 칩이 제조 사업을 데이터 센터 애플리케이션으로 확장하는 데 도움이된다고한다.
Baidu는 Kunlun과 함께 Google의 TPU, Qualcomm 's Cloud 100, Nvidia의 T4 및 Intel의 Nervana NNP-I 및 최근의 데이터 센터 AI 추론 칩 을 보유한 여러 회사에 합류했습니다. 하바나 고야 인수. 가장자리에는 화웨이, 인텔, 엔비디아, 애플, 퀄컴, 삼성 등의 회사들이 개별 또는 통합 신경망 가속기를 가지고있다.