세종대 구영현 교수팀, AI 학회 'ICLR 2026' 논문 채택

기사등록 2026/02/19 10:45:42

차세대 맘바 기반 MLLM의 프루닝 기법 제시

세계 3대 인공지능 학술대회 'ICLR'서 연구력 입증

[서울=뉴시스] 구영현(오른쪽 첫 번째) 교수와 인공지능데이터사이언스학과 연구진. (사진=세종대 제공) 2026.02.19. photo@newsis.com *재판매 및 DB 금지
[서울=뉴시스] 구영현(오른쪽 첫 번째) 교수와 인공지능데이터사이언스학과 연구진. (사진=세종대 제공) 2026.02.19. [email protected] *재판매 및 DB 금지
[서울=뉴시스]박시은 인턴 기자 = 세종대학교는 인공지능데이터사이언스학과 구영현 교수 연구팀의 논문이 인공지능(AI) 국제 학술대회 'ICLR 2026'에 채택돼 발표 예정이라고 19일 밝혔다.

ICLR(국제학습표현학회)은 딥러닝 및 AI 분야에서 가장 영향력 있는 세계 3대 학술대회 중 하나로, 올해 대회는 오는 4월 23일부터 27일까지 브라질에서 개최될 예정이다.

연구팀이 대회에서 발표할 논문은 'DTP: 델타 지표를 활용한 맘바 기반 멀티모달 대규모언어모델의 효율적인 2단계 가지치기 기법(Delta-Guided Two Stage Pruning for Mamba-based Multimodal Large Language Models)'이다.

이는 차세대 모델 구조로 주목받는 맘바 기반 멀티모달 대규모언어모델(MLLM)의 추론 효율을 획기적으로 향상하는 새로운 토큰 프루닝 기법을 제시했다.

기존 연구들이 주로 트랜스포머 기반 모델의 '어텐션(attention)' 메커니즘을 활용해 온 것과 달리, 해당 연구는 맘바 구조의 핵심 파라미터인 '델타(Delta)'를 활용하며 토큰 중요도를 직접 계산하는 방식을 채택했다. 이를 통해 추가 학습 없이도 추론 단계에서 불필요한 시각 토큰을 효과적으로 제거할 수 있다는 점이 큰 특징이다.

아울러 연구에서 제안된 DTP 기법은 두 단계 전략을 통해 모델의 효율성을 극대화한다. 초기 레이어에서는 선택적 프루닝(가지치기)을 적용해 핵심 정보를 정교하게 보존하고, 후기 레이어에서는 완전 프루닝을 수행해 불필요한 연산 요소를 제거한다.

실험 결과, 해당 기법은 대표적인 맘바 기반 모델에서 연산량을 최대 약 50%까지 감소시켰으며 데이터 처리 초기 단계인 프리필(Prefill) 지연 시간을 35% 이상 단축하면서도 기존 방법론 대비 우수한 성능 유지 효과를 입증했다.

연구에 참여한 박성열 석사과정생은 "세계적인 인공지능 학술대회에서 연구 성과를 발표하게 돼 매우 영광"이라며 "이번 성과를 발판 삼아 앞으로도 꾸준히 더 나은 연구를 수행하겠다"고 소감을 전했다.


◎공감언론 뉴시스 [email protected]
button by close ad
button by close ad

세종대 구영현 교수팀, AI 학회 'ICLR 2026' 논문 채택

기사등록 2026/02/19 10:45:42 최초수정

이시간 뉴스

많이 본 기사