최수연 "R&D 목적 개발, LLM 핵심 노하우 등 고려해 비공개"
성낙호 "시장이 원하는 AI 파악해 빠르게 공급하는 게 우선"
[서울=뉴시스]윤정민 최은수 기자 = 네이버가 초거대 인공지능(AI) 서비스 고도화를 위해 자체 개발한 거대언어모델 '하이퍼클로바X'에 대해 구체적인 파라미터(매개변수)를 공개하지 않겠다고 했다. 다만 오픈AI LLM인 GPT 3.5와 비교했을 때 승률이 75%라며 하이퍼클로바X가 우수한 성능을 지녔다고 강조했다.
최수연 네이버 대표이사는 24일 오전 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 콘퍼런스 '단 23' 기자간담회에서 "하이퍼클로바X는 연구개발(R&D) 차원의 목적이 컸다"며 "(파라미터는) 언어모델의 핵심 노하우"라고 설명했다.
업계에 따르면 오픈AI의 GPT 3.5 파라미터는 1750억개다. 2년 전 네이버가 공개한 하이퍼클로바 파라미터는 2040억개다.
2년간 개발을 고도화한 만큼 이번에 공개한 하이퍼클로바X 파라미터 수가 전작보다 늘었을지 관심이 쏠렸다. 하지만 오픈AI가 GPT4 파라미터 수를 공개하지 않았듯 네이버도 새 LLM 파라미터 수를 공개하지 않기로 했다.
성낙호 네이버클라우드 하이퍼스케일AI 기술 총괄은 "GPT 3.5 대비 하이퍼클로바X 승률이 75%"라고 강조했다.
성 총괄은 "클로바X가 원하는 것은 어떤 질의에 요청하고 실망하는지 빠르게 파악해 시장이 원하는 AI를 빠르게 공급하는 것"이라며 "오늘부터 서비스를 개시하면서 문제를 해결해 가며 몇 달 안에 강력한 서비스 내놓을 수 있을 것"이라고 말했다.
◎공감언론 뉴시스 alpaca@newsis.com, eschoi@newsis.com