그로쓰리서치 "AI ASIC 시대, 메모리도 맞춤형으로 간다"

기사등록 2025/12/08 08:25:06

[서울=뉴시스] 배요한 기자 = 스몰캡 전문 독립 리서치 기업 그로쓰리서치는 8일 인공지능(AI) 반도체 아키텍처 변화의 핵심 축으로 부상하고 있는 '커스텀 HBM(Custom HBM)' 산업에 대한 심층 분석 보고서를 발간했다. 이번 보고서는 AI 인프라가 그래픽처리장치(GPU) 중심에서 텐서처리장치(TPU)·주문형반도체(ASIC) 기반으로 빠르게 확장되는 흐름 속에서, 메모리 반도체 역시 범용 제품에서 고객 맞춤형 구조로 전환되고 있다는 점에 주목했다.

한용희 그로쓰리서치 연구원은 "AI 가속기 시장은 구글의 TPU 사례처럼 점점 더 특정 목적에 최적화된 아키텍처로 이동하고 있다"며 "기존 GPU는 수천 개의 코어가 메모리와 지속적으로 데이터를 주고받는 '로드 앤드 스토어(Load & Store)' 방식이기 때문에 실제 연산보다 데이터 이동에 더 많은 전력이 소모되는 구조였다"고 설명했다.

반면 TPU는 '시스톨릭 어레이(Systolic Array)'라는 방식으로 설계돼 있어 데이터가 일정한 흐름을 따라 연산 장치를 통과하면서 효율적인 행렬 연산이 가능하다는 분석이다.

이러한 아키텍처 변화에 따라, HBM의 역할도 단순한 고속 메모리를 넘어서는 방향으로 진화하고 있다. 특히 HBM 적층 구조의 가장 아래에 위치한 베이스 다이(Base Die)는 이제 단순한 완충기(Buffer)가 아니라, AI 가속기의 구조에 맞춰 데이터를 미리 가공하고 정렬하는 '메모리 쪽 두뇌(Near-Memory Processing)' 역할을 수행하고 있다.

한 연구원은 차세대 제품인 HBM4(6세대 HBM)를 커스텀 HBM 전환의 결정적 분기점으로 꼽았다. 기존 HBM3E까지는 1024개의 I/O 수를 기반으로 범용 메모리로도 병목 없이 운영이 가능했지만, HBM4부터는 I/O 수가 2048개로 늘어나고, 메모리 대역폭과 동작 속도도 급격히 향상되면서, 데이터를 사전에 정렬하지 않으면 가속기 내부에서 병목현상이 발생할 수밖에 없다는 설명이다.

이처럼 HBM4에서는 로직 다이(베이스 다이)에 AI 가속기별로 맞춤화된 데이터 전처리 기능이 요구되며, 이로 인해 해당 다이 설계는 미세공정을 필요로 하는 복잡한 작업이 됐다. 그 결과 HBM 베이스 다이는 사실상 파운드리 공정의 영역으로 넘어가게 됐고, 각 고객사에 맞춘 커스텀 설계가 필수화되면서 'AI 가속기별 커스텀 HBM'이라는 개념이 본격화되고 있다는 분석이다.

보고서는 주요 메모리 기업들의 전략도 비교했다. SK하이닉스는 엔비디아 및 TSMC와 긴밀한 협업 관계를 구축하며, '원팀(One Team)' 전략을 통해 메모리 적층 및 패키징 분야에서 독보적 1위 입지를 다지고 있다고 평가했다. 삼성전자는 메모리, 파운드리, 패키징을 수직 계열화한 턴키(Turn-Key) 공급 체계를 통해 TSMC–엔비디아 라인과는 다른 대체 공급망을 원하는 글로벌 고객사를 공략하고 있는 것으로 나타났다.

파운드리 역량이 없는 마이크론은 TSMC 생태계에 편입되며 전력 효율이 뛰어난 HBM3E를 전면에 내세워 전성비를 중시하는 고객층을 타깃으로 하고 있다고 분석했다.

그는 커스텀 HBM이 단순한 기술 진화가 아니라, 메모리 반도체의 비즈니스 모델 전환을 촉진하는 계기가 될 것으로 봤다. 기존 범용 D램, 낸드, HBM 제품은 수요 둔화 시 가격 급락과 재고 부담이라는 사이클 리스크에서 자유롭지 못했지만, 커스텀 HBM은 고객 맞춤형 설계와 높은 전환 비용, 대체 불가능성 등으로 인해 사전 수주 기반의 생산 구조가 가능해지고 있다는 것이다.

한 연구원은 "커스텀 HBM은 단순한 HBM의 고급형이 아니라, AI 모델에 맞춰 가속기와 메모리를 함께 설계해야 하는 완전히 새로운 반도체 시대의 출발점"이라며 "HBM4를 기점으로 메모리 업체들은 파운드리에 가까운 수익 구조를 확보하게 될 것이며, IP·파운드리 협업 구도가 메모리 경쟁력을 좌우하는 핵심 요소로 자리잡게 될 것"이라고 전망했다.


◎공감언론 뉴시스 byh@newsis.com