인텔 "ML커먼스 AI 성능 벤치마크 통해 AI 경쟁 우위 성능 달성"
인텔 "ML커먼스 AI 성능 벤치마크 통해 AI 경쟁 우위 성능 달성"
  • 김문구 기자
  • 승인 2023.06.28 12:28
  • 댓글 0
이 기사를 공유합니다

하바나 가우디2, 4세대 제온 스케일러블 프로세서로 AI 학습서 고성능·비용절감 제공
하바나 가우디2 메자닌 카드(왼쪽) 및 4세대 제온 인텔 스케일러블 프로세서
하바나 가우디2 메자닌 카드(왼쪽) 및 4세대 제온 인텔 스케일러블 프로세서

[아이티비즈 김문구 기자] 인텔은 ML커먼스의 인공지능(AI) 성능 벤치마크를 통해 AI 경쟁 우위 성능을 달성했다고 28일 밝혔다.

ML커먼스가 AI 성능 벤치마크 ‘MLPerf 트레이닝 3.0’ 결과를 발표했다. 인텔 하바나 가우디2 딥러닝 가속기와 4세대 인텔  제온 스케일러블 프로세서는 해당 벤치마크에서 뛰어난 학습 결과를 달성했다. 

인텔 데이터 센터 및 AI 그룹 총괄 산드라 리베라 부사장은 “ML커먼스의 최신 발표를 통해 AI 분야에서 인텔 제온 프로세서 및 인텔 가우디 딥러닝 가속기가 고객에 제공하는 총소유비용(TCO) 가치를 확인할 수 있다. 제온 프로세서의 내장 가속기는 대용량 AI 워크로드를 범용 프로세서에서 실행하는 데 이상적인 솔루션이며, 가우디는 대규모 언어 모델 및 생성형 AI에서 경쟁력 있는 성능을 제공한다”며 “인텔 스케일러블 시스템은 프로그래밍하기 용이한 최적화된 개방형 소프트웨어를 기반으로 고객과 파트너가 클라우드에서 인텔리전트 엣지를 포함하는 데이터센터에서 AI 기반 솔루션을 더욱 쉽게 배포하도록 지원하고 있다”고 말했다.

현재 생성형 AI와 대규모 언어모델(LLM)은 엔비디아 GPU에서만 실행할 수 있다는 것이 업계의 정설로 여겨지고 있다. 하지만, 이번 발표로 인텔 AI 솔루션 포트폴리오가 효율성과 확장성을 제한하는 폐쇄적인 생태계에서 벗어나고자 하는 고객에 경쟁력 있고 매력적인 선택지를 제공하고 있음을 확인할 수 있다.

이번 발표는 다양한 딥러닝 모델에 대한 인텔 제품의 높은 성능을 입증했다. 더불어 학습을 위한 가우디2 기반 소프트웨어 및 시스템의 성숙도 또한 대규모 언어 모델인 GPT-3을 통해 검증했다. 가우디2는 GPT-3의 LLM 학습 벤치마크에 성능 결과를 제출한 단 두 개의 반도체 솔루션 중 하나이다.

가우디2는 서버 및 시스템 비용 모두에서 고객에 경쟁력 있는 비용 이점을 제공한다. 가우디2는 GPT-3 상에서 기록한 가속기의 MLPerf 검증 성능, 컴퓨터 비전, 자연어 모델 및 향후 소프트웨어 개선을 바탕으로 엔비디아 H100 제품 대비 고객에 더욱 매력적인 가성비를 제공하는 선택지를 제공할 것이다.

CPU 측면에서 인텔 AI 엔진이 탑재된 4세대 제온 프로세서의 딥러닝 학습 성능을 통해 고객이 제온 기반 서버로 데이터 전처리, 모델 학습 및 배포를 위한 단일 범용 AI 시스템을 구축해 AI의 성능, 효율성, 정확성 및 확장성을 적절히 조합할 수 있다는 것을 입증했다.

생성형 AI 및 대규모 언어 모델 학습을 위해선 방대한 컴퓨팅 요구사항을 충족할 수 있는 서버 클러스터가 필요하다. 이번 MLPerf 결과는 가장 까다로운 모델인 1,750억 개의 매개변수 GPT-3에서 하바나 가우디2의 뛰어난 성능과 효율적인 확장성을 입증했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.