다트크리에이티브 IT & CG Magazine

엔비디아, MLPerf에서 최고의 AI 성능과 다양한 기능 공개

엔비디아가 MLPerf 벤치마크에서 엔비디아(NVIDIA)가 최상의 AI 훈련 성능을 제공하고 있다고 발표했다.

인공지능(AI) 컴퓨팅 기술 분야의 선두주자인 엔비디아는 MLPerf 벤치마크에서 엔비디아(NVIDIA)가 최상의 AI 훈련 성능을 제공하고 있다고 30일 발표했다.

이번 MLPerf에서 엔비디아 파트너가 제출한 제출물이 전체의 90%를 차지한다. 이는 엔비디아 AI 플랫폼의 선도적인 다기능성과 광범위한 생태계를 보여준다.

또한 엔비디아 AI 플랫폼은 MLPerf 트레이닝 2.0 라운드에서 8가지 벤치마크를 모두 다뤘다. 음성 인식, 자연어 처리, 추천 시스템, 객체 감지, 이미지 분류 등 인기 있는 AI 사용 사례를 나타내는 모든 벤치마크를 실행한 것은 엔비디아가 유일하다.

최고의 벤치마크 결과 – 가용성

4회 연속 MLPerf 트레이닝 제출에서 엔비디아 암페어 아키텍처 기반 엔비디아 A100 텐서 코어 GPU는 꾸준히 우수한 성능을 보였다.

▲각 제출자 플랫폼별 각 네트워크에서 가장 빠른 훈련 시간

사내 AI 슈퍼컴퓨터인 셀린(Selene)은 8개 테스트 중 4개에서 훈련하는 데 가장 빠른 시간을 보였다. 여기서 셀린은 모듈식 엔비디아 DGX 슈퍼POD 기반 엔비디아 A100 GPU, 소프트웨어 스택 및 엔비디아 인피니밴드 네트워킹으로 구동된다.

▲칩당 성능을 계산하기 위해 이 차트는 가장 빠른 경쟁자의 가장 가까운 척도로 모든 제출을 정규화한다.

가장 빠른 경쟁자는 1x로 표시하는데, 가장 빠른 경쟁자를 결정하기 위해 대부분의 제출자에게 공통적인 척도를 사용했다. 엔비디아 A100은 칩당 선두를 유지, 8개의 테스트 중 6개의 테스트에서 가장 빠른 성능을 입증했다.

총 16개 회사가 엔비디아 AI플랫폼을 사용해 이번 라운드의 결과를 제출했다. 여기에는 에이수스(ASUS), 바이두(Baidu), CASIA (Institute of Automation, Chinese Academy of Sciences),델 테크놀로지스(Dell Technologies), 후지쯔(Fujitsu), 기가바이트(GIGABYTE), H3C, HPE(Hewlett Packard Enterprise), 인스퍼(Inspur), 레노버(Lenovo), 네트릭스(Nettrix) 및 슈퍼마이크로(Supermicro) 등이 포함된다.

대부분의 엔비디아 OEM 파트너는 엔비디아에서 검증된 서버인 엔비디아 인증 시스템(Certified Systems)을 사용했으며, 이를 통해 엔터프라이즈 구축을 위한 뛰어난 성능, 관리성, 보안 및 확장성을 제공할 수 있었다.

많은 모델들이 실제 AI 애플리케이션을 지원, AI를 통한 ROI 제공

AI 애플리케이션은 사용자의 음성 요청을 이해하고, 이미지를 분류하고, 추천하고, 음성 메시지로 응답을 전달해야 한다. 따라서 여러 종류의 AI 모델이 필요하고, 사용자는 이러한 모델을 빠르고 유연하게 설계, 교육, 배치하고 최적화해야 한다. 이에 엔비디아 AI 플랫폼이 제공하는 선도적 성능과 더불어 다양한 기능이 실제 AI에 필수적이다.

고객에게 데이터 과학 및 엔지니어링 팀의 중요성 증대는 그들의 생산성이 AI 인프라에 대한 투자 수익을 결정하기 때문이다. AI 연구원의 생산성은 새로운 아이디어를 신속하게 테스트하는 능력에 달려 있으며, 어떤 모델이든 훈련할 수 있는 다재다능함과 해당 모델을 최대 규모로 훈련할 때 제공되는 속도가 모두 필요하다. 또한 AI 인프라의 활용은 단일 플랫폼에서 데이터 준비부터 훈련, 추론에 이르기까지 전체 AI 워크플로우를 가속화할 수 있는 기능 또는 호환성에 의존한다.

엔비디아 AI를 통해 고객은 전체 AI 파이프라인에 동일한 인프라를 사용하여 데이터 준비, 교육 및 추론 등의 다양한 요구에 맞게 용도를 변경할 수 있으며, 활용도가 크게 향상되어 매우 높은 ROI로 이어진다. 또한 연구원들이 새로운 AI의 돌파구 발견을 꾀하기 위해서 최신 모델 혁신을 지원하는 것이 AI 인프라의 사용 수명을 극대화하는 핵심이다.

엔비디아 AI는 모든 모델에 대해 보편적이고 성능이 뛰어나며, 데이터 준비, 훈련, 추론에 이르기까지 모든 크기에 맞게 확장되며 AI를 엔드 투 엔드로 가속화하므로 달러당 최고의 생산성을 제공한다. 이번 결과는 지금까지 모든 MLPerf 훈련, 추론 및 HPC 라운드에서 보여지는 엔비디아의 광범위하고 심층적인 AI 전문 지식을 입증한다.

3년 반 만에 23배 향상된 성능

2018년 12월 AI 벤치마크 산업 표준인 MLPerf의 1차 라운드에 제출한 이후 엔비디아는 지속적으로 발전했으며, MLPerf에 A100을 처음 제출한 이후 2년 간 엔비디아 플랫폼은 6배 더 향상된 성능을 제공했다.

또한 소프트웨어 스택에 대한 지속적인 최적화는 성능을 증가시키는 데 도움이 됐다. 엔비디아 AI 플랫폼은 GPU, 소프트웨어, 대규모 개선에 걸친 풀스택 혁신의 결과로 3년 반 만에 23배 향상된 성능을 제공했다.
게다가, 3월에 발표된 엔비디아 호퍼(Hopper) 아키텍처는 더 큰 발전을 약속했다.

구현방법

엔비디아 암페어(Ampere) 아키텍처에서 더 많은 성능을 제공하면서 소프트웨어 혁신은 계속된다.
예로, 많은 가속기에서 실행되는 작업에 대한 시작 오버헤드를 최소화하는데 도움이 되는 소프트웨어 쿠다(CUDA) 그래프는 제출 문서 전반에 걸쳐 광범위하게 사용된다.

GPU에 대한 딥 러닝을 가속화하기 위한 라이브러리인 cuDNN에 대한 최적화는 대규모 ResNet-50 처리량을 4% 이상 높이고, 단일 노드 3D U-Net 제출 속도를 5% 이상 향상시켰다.

또한 많은 오디오, 이미지 또는 비디오 데이터를 빠르게 로드하기 위한 라이브러리인 엔비디아 DALI의 향상된 기능은 RNN-T 성능을 향상시키는데 도움이 됐다.

엔비디아가 사용하는 모든 소프트웨어는 MLPerf 저장소에서 사용할 수 있으므로 모든 사람이 세계적 수준의 결과를 얻을 수 있다. 엔비디아는 GPU 애플리케이션용 소프트웨어 허브인 NGC에 다양한 최적화 사항을 지속적으로 추가하고, 엔비디아 AI 엔터프라이즈를 제공하여 엔비디아가 완벽하게 지원하는 최적화된 소프트웨어를 제공한다.

A100이 출시된 지 2년이 지난 지금까지 엔비디아 AI 플랫폼은 MLPerf 2.0에서 가장 높은 성능을 지속적으로 제공하고 있으며, 모든 벤치마크에서 제출할 수 있는 유일한 플랫폼이다. 엔비디아의 차세대 호퍼 아키텍처는 향후 MLPerf 라운드에서 또 다른 큰 도약을 약속한다.

엔비디아 플랫폼은 모든 규모의 모든 모델과 프레임워크에 사용 가능하며 AI 워크로드의 모든 부분을 처리할 수 있는 호환성을 제공한다. 뿐만 아니라 모든 클라우드와 모든 주요 서버 제조업체에서 사용할 수 있다.

◈ 다트크리에이티브 | 한재현 기자 wowhjh@gmail.com

Facebooktwittermail

DAATKING

멀티미디어, 가상현실&컴퓨터그래픽을 전공한 크리에이티브 디렉터를 지향하는 콘텐츠 제작자겸 저널리스트입니다.
CG 콘텐츠를 제작하는 Media & Entertainment 업계 사람들과 진솔한 이야기와 창의적 지식을 모아서 올바르게 전달하고 소통하도록 노력하겠습니다.

Add comment