퀄컴, AI 반도체 출사표…HBM 대신 '가성비' D램 쓴다

기사등록 2025/10/29 07:00:00

최종수정 2025/10/29 07:32:24

저전력 D램 채택…"비용 절감과 메모리 용량 증가 목적"

[서울=뉴시스] 퀄컴이 2026년과 2027년 출시할 예정이라고 27일 발표한 인공지능(AI) 반도체 AI200과 AI250 소개 화면(출처: 퀄컴) 2025.10.28.  *재판매 및 DB 금지
[서울=뉴시스] 퀄컴이 2026년과 2027년 출시할 예정이라고 27일 발표한 인공지능(AI) 반도체 AI200과 AI250 소개 화면(출처: 퀄컴) 2025.10.28.  *재판매 및 DB 금지
[서울=뉴시스]이인준 기자 = 글로벌 팹리스(설계전문) 기업인 퀄컴이 AI(인공지능) 반도체 라인업을 공개하며 시장 참전을 선언했다.

모바일 칩 분야 강자인 퀄컴의 신제품은 초고가의 HBM(고대역폭메모리) 대신 가성비가 높은 LPDDR(저전력 D램)을 사용한 것이 가장 큰 특징이다. 전력 효율을 무기로, 엔비디아가 주도하는 AI 반도체 시장에 파문을 일으킬 지 주목된다.

29일 업계에 따르면 퀄컴은 2026년과 2027년에 각각 'AI200'과 'AI250'을 각각 상용 출시할 예정이다.

퀄컴의 이 새로운 AI 가속기는 AI 추론에 최적화돼 있으며, 비용 절감과 메모리 용량 증가를 위해 저전력 D램 메모리를 지원하는 것이 특징이다.

내년 출시가 예정된 AI200은 칩 하나당 768GB(기가바이트) 용량의 저전력 D램을 사용한다. 엔비디아의 차세대 AI 반도체 루빈(288GB)보다 2.5배 크다.

또 저전력 D램 사용으로 전력 소모를 줄일 수 있다.

오는 2027년 하반기에 출시될 루빈 울트라 NVL576 랙은 최대 600㎾의 전력을 소비할 것으로 예상되는데 지금보다 4배 이상 전력 사용량이 커진다. 반면 AI200 기반 랙의 전력 소모가 160㎾ 수준이다.

퀄컴은 HBM 대신 채택한 저전력 D램이 고객의 총소유비용(TCO)를 낮출 것으로 기대했다. 퀄컴의 AI 반도체는 사우디아라비아의 공공투자펀드가 지원하는 AI 기업 '휴메인'을 고객으로 확보했는데 앞으로 빅테크 기업들의 선택이 있을지 관건이다.

퀄컴의 AI 가속기는 메모리 산업에도 새로운 기회가 될 전망이다.

AI 반도체 시장은 현재 엔비디아가 주도하는데, 모바일 칩 분야 강자인 퀄컴을 비롯한 다양한 반도체 기업들의 도전에 직면했다.

골드만삭스에 따르면 올해 AI 서버 출하량의 62%에 엔비디아의 범용 GPU(그래픽처리장치)가 사용 중인데, 오는 2027년에는 55% 수준까지 낮아질 수 있다.

특히 이런 추론 전용 AI 반도체 시장이 본격적으로 커지면, 메모리 수요처도 다양해지는 효과가 있다.

삼성전자와 SK하이닉스는 HBM뿐 아니라 저전력 D램, 그래픽용 D램 등 다양한 메모리 제품의 생산과 개발을 주도하고 있다. 그동안 고객들이 HBM 제품만 찾는 경향이 있었지만, 앞으로는 선택지가 다양해지면서 전체 시장의 규모가 커지고 새로운 협력의 기회가 열릴 수 있다는 분석이 나온다.


◎공감언론 뉴시스 [email protected]
button by close ad
button by close ad

퀄컴, AI 반도체 출사표…HBM 대신 '가성비' D램 쓴다

기사등록 2025/10/29 07:00:00 최초수정 2025/10/29 07:32:24

이시간 뉴스

많이 본 기사