하드웨어

엔비디아, 5120 cuda 코어의 테슬라 v100 프로세서 발표

차례:

Anonim

캘리포니아 산호세에서 열린 GTC 2017 이벤트 기간 동안 NVIDIA는 인공 지능과 자율 주행 차 또는 보조 장치와 같은 딥 러닝 신경망을 포함한 새로운 컴퓨팅 시대를 주도하는 강력한 프로세서 를 발표했습니다 . 즉시 번역.

새로운 NVIDIA Volta 아키텍처는 인공 지능을 목표로합니다.

Tesla V100은 작년에 소개 된 Pascal 프로세서보다 계산 성능이 5 배나 높습니다. 이 제품은 Apple Watch 크기의 단일 칩에 약 210 억 개의 트랜지스터가있는 새로운 Volta 아키텍처를 기반으로합니다. 엔비디아 CEO는 또한이 프로세서를 개발하는데 수십억 달러를 소비했다고 말했다.

Tesla V100은 딥 러닝 애플리케이션 용으로 특별히 제작되어 초당 부동 소수점 연산을 수행하는 데있어 작년의 칩보다 약 12 ​​배 더 빠르며, 2 세대 NVLink는 300GB / s 대역폭은 900GB / s에서 실행되는 16GB의 HBM2 메모리를 사용 합니다.

다른 한편으로, 이 카드는 5120 CUDA 코어를 가진 새로운 Volta GPU에 의해 구동되며, 보드 크기가 812mm 정사각형 으로 만들어진 가장 큰 GPU입니다.

마찬가지로 Tesla V100은 텐서 (Tensor)라고하는 새로운 유형의 계산 핵을 자랑하며, 그 목적은 딥 러닝을위한 산술입니다.

Tesla V100 칩의 주요 사양:

  • 딥 러닝에 최적화 된 새로운 스트리밍 멀티 프로세서 2 세대 NVLink 16GB HBM2 메모리 Volta 멀티 프로세스 서비스 통합 메모리 개선 협업 그룹 및 새로운 협업 시작 API 최적화 된 효율성 모드를 통한 최대 성능 Volta 소프트웨어 최적화

Tesla V100 칩은 새로운 DGX-1 및 HGX-1 컴퓨팅 머신의 중심에 있으며 여기를 클릭하여 자세한 정보를 읽을 수 있습니다.

하드웨어

편집자의 선택

Back to top button