AWS, 자체 AI 칩 트레이니움3·울트라서버 출시
맷 가먼 "AI 반도체 놀라운 성과 보였다…어떤 혁신 펼쳐질지 기대"
구글·아마존 독자칩 중심 수직계열화에 흔들리는 엔비디아 위상

(사진=유토이미지) *재판매 및 DB 금지
[서울·라스베이거스(미국)=뉴시스]이주영 송혜리 기자 = 아마존이 차세대 자체 인공지능(AI) 전용 반도체 '트레이니움3' 상용화에 전격 나섰다. 아마존웹서비스(AWS)의 AI데이터센터 서버에 적용하기 시작한 것.
구글이 최근 '제미나이 3.0' 서비스에 자체 AI 반도체 TPU(텐서처리장치)를 적용한 데 이어 아마존마저 독자 칩 사업을 강화하면서 AI 반도체 시장에서 견고했던 엔비디아 GPU(그래픽처리장치) 독점 체제가 흔들릴 것이라는 관측이 나오고 있다.
성능은 4배 향상, 전력은 40% 절감…두 마리 토끼 노린 아마존 '트레이니움3'
'트레이니움3'는 AWS가 만든 첫 3나노미터(nm) AI 칩. 초대형언어모델(LLM)을 학습하고 다수 사용자에게 동시에 실시간 추론 서비스를 제공하는데 필요한 AI 반도체를 독자 설계했다.
이를 탑재한 울트라 서버는 최대 144개의 트레이니움3 칩이 들어간다. 아마존에 따르면, 전작인 트레이니움2 울트라 서버에 비해 연산 성능은 최대 4.4배 늘었고, 전력 소비량은 40% 줄었다.
또 4배 낮은 지연 시간을 구현해 모델 훈련 시간을 몇 개월에서 몇 주로 단축하고 더 많은 사용자의 추론 요청을 동시에 처리하며, 출시 기간과 운영 비용을 모두 줄여준다.
AWS는 트레이니움3 서버를 이용할 경우 GPU로 AI 모델을 학습·운영했을 때보다 최대 50%의 비용을 절감할 수 있다고 강조했다. AI 경쟁이 장기전으로 접어든 상황에서 비용 절감은 기업뿐만 아니라 스타트업에도 절박한 과제로 대두되고 있다. 이들 입장에서는 엔비디아 칩 대신 AWS의 칩으로 AI 모델을 학습시킬 수 있어 선택권이 넓힐 수 있게 됐다.
맷 가먼 AWS 최고경영자(CEO)는 "트레이니움3를 추론 벤치마크 해본 결과 전작과 동일한 사용자 지연 시간을 유지하면서도 전력 1메가와트 당 출력 토큰 수가 5배 이상 증가하는 등 놀라운 성과를 보였다"며 "앞으로 어떤 혁신이 기다리고 있는지도 살짝 공개하겠다"며 후속작(트레이니움4) 개발 착수 소식을 알렸다.
AWS가 개발 중인 '트레이니움4'는 연산 성능 6배 증가, FP8 성능 3배 향상, 메모리 대역폭 4배 확장을 목표로 하고 있다.
AI 칩 시장 대결 가속화…엔비디아 독점 흔들릴까
전세계 주요 빅테크들의 대규모 AI 데이터센터 투자 열풍이 한창인 가운데, 엔비디아 GPU 수급력이 AI 경쟁력을 가르는 기준이 돼왔다. 여기에 AI 학습과 사용량 폭증에 따른 전력 인프라의 한계도 극복해야 할 전세계 국가와 기업들의 현안 과제로 부상했다.
구글이 AI 연산과 학습에 특화된 전용 칩 TPU를 내놓게 된 이유다. 특히 구글이 최근 내놓은 '제미나이 3.0'이 이용자들의 호평을 받고 있는 가운데 구글이 엔비디아 범용 GPU 대신 TPU 서비스로 더 뛰어난 성능을 구현한 것으로 알려지면서 뜨거운 주목을 받고 있다. 대규모 AI투자를 진행 중인 메타가 구글 TPU 구매방안을 검토 중이라는 보도까지 이어졌다.
이에 더해 엔비디아 GPU의 최대 고객사 중 한 곳인 아마존이 자체 AI칩 적용을 본격화하면서 엔비디아 독주 시대도 서서히 허물어지는 것 아니냐는 분석이 나오고 있다.
엔비디아는 애써 아마존과의 협력 관계를 강조하고 있다. 리인벤트 무대에서 엔비디아 측은 "AWS는 엔비디아 GPU를 구동하기에 단연 최고의 환경을 제공한다"며 "두 기업은 15년 넘게 협력하며 쌓아온 대규모 GPU 운영 기술로 문제를 지속적으로 개선해 나가고 있다"고 밝혔다.
◎공감언론 뉴시스 [email protected], [email protected]
