AMD 라데온 (Radeon) instinct MI100 'CDNA GPU'성능 수치 및 성능에 대한 정보가 나오다. - It 정보 공유
AMD 라데온 (Radeon) instinct MI100 'CDNA GPU'성능 수치 및 성능에 대한 정보가 나오다.

상세 컨텐츠

본문 제목

AMD 라데온 (Radeon) instinct MI100 'CDNA GPU'성능 수치 및 성능에 대한 정보가 나오다.

그래픽카드/AMD 그래픽카드

by Storm, Hong 2020. 7. 31. 03:00

본문



AMD Radeon instinct MI100  'CDNA GPU' (AMD 라데온 instinc MI100  'CDNA 그래픽카드') 성능 수치가 FP32 컴퓨팅, 인상적인 성능을 나타내다.


AMD의 차세대 CDNA GPU 기반 AMD Radeon instinct MI100 (AMD 라데온 instinct MI100) 의 가속 성능과 수치에 대한 세부 정보가 AdoredTV에 의해 유출되었습니다. 이에 대한 게시물은 AdoredTV는 NVIDIA의 Volta 및 Ampere GPU에 대한 예정된 HPC GPU의 성능 벤치마크를 다루고 있습니다. 

ADoredTV는 직접받은 슬라이드가 공식 AMD Radeon insticnct MI100 (AMD 라데온 instinct MI100) 프레젠테이션에서 나온 것이라고 이야기하고 있습니다. 그들에 받은 소스에 계시된 내용은 원래 버전의 수정된 버전인 것처럼 보이지만 세부 사항은 그대로 유지 되었습니다. 이전에 공개한 게시물에서 2020년 AMD와 파트너가 기대할 수 있는 출시 계획 및 서버 구성에 대한 많은 정보를 제공했습니다. 


AMD Radeon Instinct MI100 1U 서버 사양

wccftech에 의하면 우선, AMD는 로마 또는 밀라노 세대를 기반으로 할 수 있는 듀얼 AMD EPYC CPU를 갖춘 2P 디자인을 갖춘 HPC 전용 서버를 공개할 계획이라고 합니다. 각 EPYC CPU는 2세대 infinity Fabric 인터커넥트를 통해 2개의 AMD Radeon instinct MI100 (AMD 라데온 instinct MI100) 엑셀러레이터(accelerators)에 연결됩니다.  4개의 GPU는 GPU당 약 34개의 TFLO FP32 컴퓨팅을 나타내는 136개의 TFLOPs FP32 (SGEMM) 출력을 제공할 수 있다고 합니다. AMD Radeon Instinct MI100 (AMD 라데온 instinct MI100) GPU의 TDP는 300W입니다.

추가 사양에는 Gen4 프로토콜에서 가능한 256GB / S의 총 GPU PCIe 대역폭이 포함됩니다. 4개의 GPU의 총 메모리 대역폭은 4.9TB / s이며, 이는 AMD가 HBM2e DRAM 다이를 사용하고 있음을 의미한다고 합니다. (각 GPU는 1.225TB / s 대역폭을 나타냅니다.) 이 결합한 메모리 풀은 GPU당 128GB 또는 32GB이라고 합니다. 이는 AMD가 여전히 4개의 HBM2 DRAM 스택 기술을 사용하고 있으며 각 스택에는 8hi DRAM 다이가 장착되어 있는 것으로 나타나고 있습니다. XGMI는 표준 구성으로 제공되지 않으며 특수한 1U 랙으로 제한됩니다. 

가용성과 관련하여 AMD EPYC (Rome / Milan) HPC CPU가 장착된 1U 서버는 2020년 12월에 출시 될 예정이며 Intel Xeon 변형도 2021년 2월에 출시될 것으로 예상됩니다.


AMD Radeon Instinct MI100 3U 서버 사양

두 번째 3U 서버는 2021년 3월에 출시될 예정이라고 합니다. 2 개의 EPYC CPU에 연결된 8개의 ㅁAMD Radeon Instinct MI100 GPU (AMD 라데온 instinct MI100) 와 같은 보다 강력한 사양을 제공할 것이라고 합니다. 4 개의 Instinct MI 100으로 구성된 각 그룹은 XGMI (100GB / s 양방향) 및 1.2TB / s의 쿼드 대역폭을 통해 함께 연결됩니다. 4 개의 본능 가속기는 FP32 컴퓨팅의 총 272개의 TFLOP, 초당 512GB의 PCIe 대역폭, 9.8TB / s의 HBM 대역폭 및 256GB의 메모리 DRAM 용량과 같습니다. 랙의 정격 전력은 3kW이라고 합니다.

AMD의 Radeon Instinct MI100 'CDNA GPU' 성능 수치는 FP32 라고?


wccftech에 의하면 성능 면에서는 AMD Radeon Instinct MI100 (AMD 라데온 instinct MI100)은 NVIDIA Volta V100 및 NVIDIA Ampere A100 GPU 가속기와 비교되었습니다. 흥미롭게도, 슬라이드에는 300W Ampere A100 가속기가 언급되어 있지만 이러한 구성은 존재하지 않습니다. 이 슬라이드는 SXM 폼 팩터의 400W 구성과 250W 구성의 두 가지 풍미가 있는 실제 변형이 아니라 가정된 A100 구성을 기반으로 한다는 것을 의미합니다. 이는 PCIe 폼 팩터로 제공됩니다.

벤치마크에 따라 AMD Radeon Instinct MI100 (AMD 라데온 instinct MI100) 은 Ampere A100보다 약 13% 향상된 FP32 성능을 제공하고 Volta V100 GPU에 비해 ​​2배 이상의 성능 향상을 제공합니다. 성능 대비 값 비율은 V100S에 비해 약 2.4 배 더 싼 값을 제공하고 Ampere A100보다 50% 더 나은 값을 제공하는 MI100과 비교됩니다. 또한 Resenet에서 최대 32개의 GPU 구성을 사용하더라도 성능 확장이 거의 선형임을 알 수 있습니다.

AMD Radeon Instinct MI100 및 NVIDIA의 Ampere A100 HPC Accelerator ( 이미지 제공 : AdoredTV ) 

또한 슬라이드는 AMD가 석유 및 가스, 학계 및 HPC 및 기계 학습을 포함한 세 가지 특정 부문에서 훨씬 더 나은 성능과 가치를 제공 할 것이라고 언급했습니다. FP64 컴퓨팅, AI 및 데이터 분석과 같은 나머지 HPC 워크로드에서 NVIDIA는 A100 가속기를 사용하여 훨씬 뛰어난 성능을 제공합니다. NVIDIA는 또한 AMD보다 다중 인스턴스 GPU 아키텍처의 이점을 가지고 있으며, Ampere A100 GPU의 최신 텐서 코어 덕분에 성능 지표에 2.5 배 향상된 FP64 성능, 2배 향상된 FP16 성능 및 2배의 텐서 성능이 표시된다고 합니다.

AMD가 벤치마크의 어느 곳에서나 NVIDIA의 희소성을 언급하지 않았습니다. 드문 경우이지만 NVIDIA의 Ampere A100은 최대 156 TFLOP의 마력을 자랑하지만, AMD가 Ampere A100과 비교하여 특정 벤치마크 비교를 원한 것처럼 보입니다. 외관상으로 AMD Radeon Instinct MI100 (AMD 라데온 instinct MI100) 은 성능과 가치가 출시될 때 괜찮은 HPC 제품으로 보인다고 합니다. 

위 내용 들은 해외 기사의 번역으로 오역, 오타, 의역, 등이 있을 수 있습니다. 참고 부탁드립니다.

출처 : wccftech

* 댓글 창 로그인이 되지 않거나 구독 버튼이 작동하지 않은 분은 1차 주소로 접속하여 주시기 바랍니다. ->티스토리 공지사항 내용은 이곳을 참조하시기 바랍니다.

관련글 더보기

댓글 영역