‘AWS 리인벤트 2020’ 행사에서 앤디 재시(Andy Jassy) 아마존웹서비스(이하 AWS) CEO는 AWS EC2 인스턴스가 하바나 가우디 (Hanaba Gaudi) 가속기 8개를 활용하고, 동일한 가격대 제품인 머신 러닝 워크로드를 위한 EC2 인스턴스 기반 GPU 대비 40% 향상된 성능을 지원한다고 밝혔다.

가우디 가속기는 자연어 처리, 객체 감지, 머신 러닝 훈련, 분류, 추천, 개인화 등을 포함하는 워크로드에 대한 딥 러닝 모델을 훈련하기 위해 특별히 설계되었다.

데이비드 다한(David Dahan) 인텔 하바나 랩스(Habana Labs) CEO는 “인텔은 AWS가 곧 있을 AWS EC2의 트레이닝을 위해 하바나 가우디 프로세서를 선택했다는 점에 자랑스럽다” “하바나 랩스 팀은 AWS와의 지속적인 협력을 통해 고객에 지속성과 성능 개선을 지원할 수 있는 로드맵을 제공할 것”이라고 말했다.

▲ 하바나 랩스 HL-205 가우디 메자닌 카드
▲ 하바나 랩스 HL-205 가우디 메자닌 카드

한편 전 세계 개발자들은 AWS 클라우드를 사용해 자사 인공지능 모델을 훈련시키고 있는데, 머신러닝 모델에서 복잡성이 증가함에 따라 더 많은 데이터를 처리하거나 혹은 개발자들이 인공지능 모델을 조정하려고 할 때 소요되는 훈련 시간과 비용도 증가했다.

가우디 기반 EC2 인스턴스는 비용 효율성과 높은 성능을 제공해 이러한 요구 사항을 해결하고, 텐서플로우(TensorFlow), 파이토치(PyTorch)와 같은 공통 프레임워크를 기본적으로 지원한다. 하바나 시냅스 AI 소프트웨어 스위트를 사용하는 개발자들은 GPU에서 가우디 가속기로 기존 훈련 모델을 쉽게 새로 만들거나 복사할 수 있다.

인텔은 인공지능 전략 고도화 및 클라우드, 데이터센터용 인공지능 가속기 포트폴리오를 강화하기 위해 지난 2019년 하바나 랩스를 인수했다. 여기에는 비즈니스, 사회, 연구 분야에서 가장 유망한 인공지능 활용 사례를 뒷받침하는 일련의 제품과 기술이 포함된다. 이는 고객 및 전체 생태계가 데이터의 잠재력을 발휘하도록 돕기 위해 CPU, GPU, FPGA 등에 걸쳐 아키텍처가 혼합된 XPU 제공 회사로 변화하는 것을 반영한다.

레미 엘 우아잔(Remi El-Ouazzane) 인텔 데이터 플랫폼 그룹 최고전략책임자(CSO)는 “인텔의 포트폴리오는 인공지능이 하나의 솔루션으로 해결가능한 컴퓨팅 과제가 아니라는 점을 반영한다” “클라우드 제공자들은 인공지능 추론 워크로드를 진행하기 위해 인텔 제온 프로세서에 내장된 인공지능 성능을 활용하고 있다” “인텔은 하바나로 인공지능 모델 훈련 비용을 규모에 맞게 줄일 수 있어서 빠르게 성장하는 시장에서도 설득력 있고 경쟁력 있는 대안을 제시할 수 있게 되었다”라고 말했다.

관련기사

저작권자 © 맨즈랩 무단전재 및 재배포 금지