"유사한 부분은 인퍼런스 코드…독자성 이야기하는 학습 코드와 구별"
"A.X K1, 독자적인 구조 가진 모델로 딥시크와 구조적으로 상이"
![[서울=뉴시스] SK텔레콤이 국내 최초 매개변수 500B(5천억 개) 규모의 초거대 AI 모델 'A.X K1'을 30일 과학기술정보통신부 주최 '독자 AI 파운데이션 모델 대국민 보고회'에서 공개한다. (사진=SKT 제공) *재판매 및 DB 금지](https://img1.newsis.com/2025/12/28/NISI20251228_0002028421_web.jpg?rnd=20251228085950)
[서울=뉴시스] SK텔레콤이 국내 최초 매개변수 500B(5천억 개) 규모의 초거대 AI 모델 'A.X K1'을 30일 과학기술정보통신부 주최 '독자 AI 파운데이션 모델 대국민 보고회'에서 공개한다. (사진=SKT 제공) *재판매 및 DB 금지
[서울=뉴시스] 심지혜 기자 = SK텔레콤은 최근 독자 인공지능(AI) 파운데이션 모델로 개발 중인 A.X K1이 딥시크 모델과 일부 유사하다는 지적에 대해, 모델을 처음부터 만든 방식과는 무관한 실행 코드 문제라고 해명했다.
8일 SK텔레콤에 따르면 딥시크와 유사하다는 지적은 모델의 구조나 가중치가 아니라 이미 만들어진 모델을 실행할 때 사용하는 '인퍼런스 코드' 일부를 두고 나온 것이다.
인퍼런스 코드는 모델을 빠르고 안정적으로 구동하기 위한 실행용 코드로, 프롬 스크래치에서 독자성을 이야기하는 학습코드와는 구별된다고 SK텔레콤은 설명했다. 모델을 처음부터 학습했는지 여부와는 직접적인 관련이 없다는 것이다. 프롬 스크래치는 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식을 뜻한다.
SK텔레콤은 AI 업계 전반에서도 실행 코드의 유사성을 프롬 스크래치 개발 여부와 연결짓지 않는다고 주장했다. 공개된 모델을 실제 서비스 환경에서 활용하기 위해 비슷한 방식의 실행 코드가 사용되는 경우는 일반적이라는 것이다.
그러면서 외부 전문가 발언을 근거로 들었다. 이승현 포티투마루 부사장은 자신의 SNS에 A.X K1과 관련, "딥시크의 MLA 방식을 참고했지만, 이를 그대로 쓰지 않고 규모를 키워 최적화했다”고 언급했다.
앞서 업스테이지도 지난 1월 2일 진행한 공개 설명회에서, 모델 내부 인퍼런스 코드 일부가 기존 유명 모델과 유사해 보일 수 있지만 이는 실행 효율을 위한 구현 선택일 뿐 학습 방식이나 가중치의 독자성과는 무관하다고 설명한 바 있다.
SK텔레콤은 A.X K1에 대해 "519B 파라미터를 갖춘 모델로, 동일한 파라미터 수와 구조를 가진 모델은 세계적으로 보고된 사례가 없으며, 딥시크V3와도 구조적으로 상이하다"는 입장을 나타냈다.
또한 가중치는 모든 파라미터를 임의 초기화한 상태에서 학습을 시작했고 외부 모델을 이어받거나 파인튜닝한 것이 아닌 내부 정예 개발팀이 독자 개발한 모델이라고 강조했다.
한편 최근 독자 AI 파운데이션 모델 프로젝트에 참여한 기업들을 둘러싸고도 표절 논란이 잇따라 제기되고 있다.
네이버클라우드는 ‘하이퍼클로바X 시드 32B 싱크’ 모델의 비전 인코더가 알리바바의 ‘큐웬(Qwen)2.5’ 모델에서 가져온 것 아니냐는 지적을 받았다.
업스테이지 역시 ‘솔라 오픈 100B’ 모델이 중국 지푸AI의 ‘GLM-4.5-에어’ 모델을 복사해 미세조정한 것 아니냐는 의혹이 제기됐으나, 업스테이지는 공개 검증을 통해 프롬 스크래치로 개발했다고 전면 반박했다.
독자 AI 모델을 추진 중인 과학기술정보통신부는 지난해 7월 발표한 독자 AI 파운데이션 모델 프로젝트 공모 안내서에 "해외 AI 모델의 파인튜닝(미세조정) 등을 통한 파생형 AI 모델 개발은 본 사업의 독자 AI 파운데이션 모델 개발로 간주되지 않는다"고 밝힌 바 있다.
◎공감언론 뉴시스 [email protected]
