프로세서

NNP, dlboost 및 keem bay, IA 및 신경망을위한 새로운 인텔 칩

차례:

Anonim

인텔은 11 월 12 일 AI Summit 행사에서 대중 시장, NNP, DLBoost 및 Keem Bay 에서 새로운 전용 하드웨어를 발표했습니다 . 이 제품들은 의심 할 여지없이 2016 년 하반기에 Movidius와 Nervana를 인수하고 Nervana의 공동 설립자 인 Naveen Rao가 이끄는 AI Products Group을 창립 한 이후 3 년이 넘는 작업을 마무리했습니다.

AI 및 신경망을위한 새로운 인텔 칩인 NNP, DLBoost 및 Keem Bay

Rao는 인텔이 이미 AI 분야에서 큰 역할을하고 있으며 2019 년 AI 매출 이 2017 년 10 억 달러보다 증가한 35 억 달러를 넘어 설 것이라고 지적했습니다. 인텔은 이미 하드웨어가 다릅니다. OpenVINO는 IOt, Agilex FPGA, PC의 Ice Lake, Cascade Lake의 DLBoost 및 미래의 개별 그래픽을 지원합니다.

프로세서: DLBoost

인텔은 쿠퍼 레이크 56 코어에서 bfloat16과의 호환성을 내년에 자사 프로세서의 DLBoost AI 기능 범위의 일부로 공개 할 예정이다. Bfloat16은 AI 교육에서 단 정밀도 부동 소수점 (FP32)과 유사한 정밀도를 달성하는 숫자 형식입니다.

인텔은 성능 향상에 대한 추정치를 제공하지 않았지만 추론을 위해 Cooper Lake는 Skylake-SP보다 30 배 더 빠르다고 진술했습니다. PC 측에서 Ice Lake는 Cascade Lake에도 동일한 DLBoost AVX-512_VNNI 명령을 통합합니다.

뫼비우스: 켐 베이 VPU

스마트 카메라, 로봇, 드론 및 VR / AR과 같은 인공 지능 전략의 일환으로 인텔은 2016 년에 Movidius를 인수했습니다. Movidius는 저전력 칩을 "비전 처리 장치"(VPU)라고합니다. 이미지 신호 처리 (ISP) 기능, 하드웨어 가속기, MIPS 프로세서 및 SHAVE 코어라고하는 128 비트 프로그래머블 벡터 프로세서 (VLIW)를 갖추고 있습니다.

시장에 나와있는 최고의 프로세서에 대한 가이드를 방문하십시오

인텔은 이제 '제 3 세대'인텔 Movidius VPU 코드 명인 Keem Bay를 자세히 설명했습니다. 인텔에 따르면 Myriad X보다 10 배 이상 높은 추론 성능을 가지며 동일한 양의 에너지를 소비합니다.

네 바나 신경망 프로세서 (NNP)

인텔은 훈련과 심층 신경망 추론을위한 NNP를 보유하고 있습니다. 추론을위한 인텔의 NNP-I는 2 개의 Ice Lake Sunny Cove 코어와 12 개의 ICE 가속기 코어를 기반으로합니다. 인텔은 와트 당 뛰어난 성능과 컴퓨팅 밀도를 제공 할 것이라고 주장했다. M.2 폼 팩터에서는 12W에서 50 개의 TOPS를 사용할 수 있으며, 이는 이전에 발표 된 바와 같이 4.8TOPS / W에 해당합니다. 인텔은 PCIe 카드의 폼 팩터가 75W를 소비하고 최대 170 개의 TOPS (INT8 정밀도)를 생산한다고 밝혔다.

인텔은 Nvidia의 73 %와 비교하여 32 개의 카드에서 95 %의 높은 니어 리니어 스케일링 효율성을 반복했습니다.

인텔은 올해 100 억 달러 규모의 매출을 올린 시장에서 모든 전선, AI, 5G, 신경망, 자율 주행 등을위한 광범위한 칩을 준비했다. 계속 알려 드리겠습니다.

Tomshardware 글꼴

프로세서

편집자의 선택

Back to top button