"전쟁에 못 쓰는 AI는 곤란"…美 국방부, 앤트로픽과 결별 검토

기사등록 2026/02/15 18:50:26 최종수정 2026/02/15 19:04:27

美 국방부, AI 기업들에 '모든 합법적 목적 허용' 압박

오픈AI·구글은 수용…앤트로픽은 자율살상무기·대규모 감시 금지 고수

[서울=뉴시스] 미 국방부가 인공지능(AI) 스타트업 앤트로픽이 자사 AI 모델의 군사적 활용에 일부 제한을 두자, 양측 간 파트너십 종료를 검토하고 있다고 14일(현지시간) 액시오스가 보도했다. 앤트로픽 인공지능(AI) 모델 '클로드' (사진=앤트로픽 제공). 2026.02.15. *재판매 및 DB 금지


[서울=뉴시스]박미선 기자 = 미 국방부가 인공지능(AI) 스타트업 앤트로픽이 자사 AI 모델의 군사적 활용에 일부 제한을 두자, 양측 간 파트너십 종료를 검토하고 있다고 14일(현지시간) 액시오스가 보도했다.

보도에 따르면 미 국방부는 무기 개발, 정보 수집, 전장 운영 등 민감한 영역을 포함해 군이 AI 도구를 "모든 합법적 목적(all lawful purposes)"에 사용할 수 있도록 허용할 것을 주요 AI 기업들에 요구했다.

오픈AI의 챗GPT, 구글의 제미나이, xAI의 그록 등 다른 AI 기업들은 이를 수용한 것으로 알려졌지만, 앤트로픽은 자사 AI 모델 '클로드'가  ▲미국인에 대한 대규모 감시와 ▲완전 자율형 살상 무기 체계에 사용되는 것을 절대 용인할 수 없다는 입장이다.

행정부 고위 관계자는 "개별 사용 사례를 일일이 협의하거나, 모델이 특정 적용을 예기치 않게 차단하는 상황은 운영상 현실적이지 않다"고 지적하며 "파트너십 축소나 종료를 포함해 모든 옵션이 테이블 위에 있다"고 말했다.

이번 갈등은 최근 베네수엘라의 니콜라스 마두로 전 대통령 체포 작전 과정에서 폭발했다. 외신에 따르면 당시 미군은 미국의 데이터 분석·AI 기업 팔란티어 테크놀로지의 플랫폼을 통해 클로드를 작전 계획 및 정보 분석에 투입했다.

행정부 고위 관계자에 따르면 이 과정에서 앤트로픽 측 임원이 팔란티어에 클로드의 사용 여부를 문의했으며, 이 관계자는 "문의 방식이 소프트웨어 사용을 문제 삼을 수 있다는 인상을 줬다"며 "해당 작전에서는 실탄이 사용됐고 사상자가 발생했다"고 말했다.

그러나 앤트로픽 측은 특정 작전에서 클로드 사용 여부를 논의한 적이 없다며 이를 부인했다. 앤트로픽은 클로드가 정부 내 다양한 정보 관련 업무에 사용되고 있으며, 자사 사용 정책에 부합하는 범위 내에서 운용되고 있다고 강조했다.

마두로 사건 외에도 앤트로픽이 AI 기술의 잠재적 위험에 대해 가장 '이념적' 접근을 취하는 기업이라는 우려도 나온다. 다만 이 관계자는 "다른 모델 기업들은 정부 특화 응용 분야에서 아직 뒤처져 있다"며 단기간에 클로드를 대체하기 쉽지 않다고 밝혔다.

앤트로픽은 지난해 여름 미 국방부와 최대 2억 달러 규모의 계약을 체결했으며, 클로드는 국방부 기밀 네트워크에 도입된 첫 AI 모델이다.


◎공감언론 뉴시스 only@newsis.com