개인정보위, GPA 서울서 '오픈소스 AI와 프라이버시' 논의 장 마련
62%가 오픈소스 도입·활용한 경험 有…도입 제약 요인으로는 '보안'꼽아
구글·네이버·MS 등 단상에 올라 오픈소스 활용 경험과 과제 공유

최장혁 개인정보보호위원회 부위원장이 15일 오후 서울 용산구 그랜드 하얏트 서울에서 개최된 '오픈소스 데이'에서 환영사를 하고 있다.(사진=개인정보위 제공)
*재판매 및 DB 금지
[서울=뉴시스]송혜리 기자 = 오픈소스 인공지능(AI)에 대한 기업들의 관심이 빠르게 확산되는 가운데 이미 3분의 2 이상이 도입을 완료했거나 도입 중인 것으로 나타났다. 그러나 보안·법적 리스크에 대한 우려는 여전해, 신뢰성과 안전성을 담보할 수 있는 실무적 가이드에 대한 요구가 높아지고 있다. 오픈소스 AI란 누구나 소스코드, 데이터 등 핵심 요소를 자유롭게 사용·수정·배포할 수 있는 AI 기술을 말한다.
개인정보보호위원회는 글로벌 프라이버시 총회(GPA) 개막에 앞서 사전 부대행사로 '오픈소스 데이'를 15일 서울 그랜드 하얏트 호텔에서 개최하고 이같은 조사 결과를 공유했다.
오픈소스 AI는 단순히 무료 코드가 아니라 혁신을 가속화하고 신뢰를 높이며 기술 민주화를 실현하는 핵심 인프라라 꼽힌다. 기업들은 오픈소스 모델을 가져와 자사 환경에 맞게 고도화하고 이를 바탕으로 새로운 서비스를 개발하거나 내부 업무에 적용하며 기술 경쟁력을 키울 수 있다. 아울러 오픈소스는 단일 기업에 대한 의존을 줄이고 신뢰성과 투명성을 높이면서도 개발 비용과 시간을 절감할 수 있는 핵심 도구로 자리 잡고 있다.
이번 설문조사는 지난달 26일부터 이달 8일까지 오픈소스 AI 도입 고려 또는 활용 중인 국내 AI기업 관계자 및 연구자 70여명을 대상으로 실시했다.
오픈소스 도입 기업 늘었지만…보안·법적 리스크 여전
이 중 32%는 오픈소스를 실제 서비스나 제품에 적용하고 있으며 30%는 파일럿 테스트 또는 개념검증(POC) 단계에서 테스트를 진행 중이라고 응답했다. 반면 16%는 도입 계획은 있으나 아직 시작 전이며 22%는 관심은 있으나 구체적인 계획은 없는 상태였다.
활용 중인 주요 오픈소스 모델 및 플랫폼은 구글 라마(LLaMA), 오픈AI GPT, 제미나이(Gemini) 등 글로벌 빅테크 기업들의 생태계를 중심으로 형성되고 있는 것으로 나타났다.
분야별로는 생성형 AI 서비스, 데이터 전처리·가공, 자연어처리(NLP), 머신러닝운영(MLOps), 컴퓨터 비전(CV) 등 다양한 기술 분야에서 활용이 확산되고 있으며 투자, 의료, 소매업 등 기타 산업군에서도 도입 의지를 보이고 있어 산업 전반으로 확산될 가능성이 높다는 분석이 나온다.
이와 함께 응답자의 77%는 오픈소스 모델의 미세조정(Fine-tuning) 과정에서 개인정보 보호와 데이터 거버넌스 이슈를 핵심 고려사항으로 인식하고 있었다. 구체적으로는 ▲개인정보·민감정보 제거 및 비식별화 조치(68%) ▲데이터 출처 검증(19%) ▲레드팀 테스트 설계(16%) ▲데이터의 국외 이전(13%) 등을 주요 관리 항목으로 꼽았다.
오픈소스 도입·활용을 가로막는 주요 제약 요인으로는 ▲보안 위험(24%) ▲라이선스 관련 법적 리스크(19%) ▲유지보수의 불확실성(16%) ▲성능 문제(16%) ▲개인정보 보호 우려(11%) ▲전문 인력 부족(9%) 등이 복합적으로 작용하고 있는 것으로 나타났다.
특히 오픈소스 활용 과정에서 미세조정 시 데이터 출처 관리, 라이선스 리스크 대응, 품질관리 체계 마련 등 신뢰성과 안전성을 확보할 수 있는 기준 마련에 대한 실무자들의 요구가 높았다. 비식별화 자동 마스킹, 품질 검증 절차, 데이터셋 활용 가이드라인 등 즉시 현장에 적용 가능한 실무 가이드에 대한 수요도 확인됐다.
이에 따라 기업들은 개인정보위 등 관계기관이 실무에 기반한 구체적인 가이드를 제공하고, 비식별·가명 처리된 데이터셋을 공개하는 등 현장 친화적이고 실효성 있는 정책적 지원에 나서줄 것을 기대하고 있다.
개인정보위는 올해 초 생성형·오픈소스 기반 AI 스타트업과 간담회를 개최해 낮은 비용으로 높은 성능을 구현할 수 있는 오픈소스 모델에 대한 산업 현장의 많은 관심과 수요를 확인했고 또 지속가능한 오픈소스 생태계를 위한 '프라이버시 가드레일'을 논의한 바 있다.
아울러 지난해와 올해 초에 걸쳐 오픈소스 모델을 포함한 주요 대규모언어모델(LLM)을 대상으로 사전 실태점검을 하고 오픈소스 AI 환경에서의 프라이버시 리스크를 파악했다.
이러한 경험을 토대로, 오픈소스 생태계에서의 위험 관리와 책임 배분 방안 등의 내용을 구체화해 'AI 프라이버시 리스크 관리 모델'과 '생성형 AI 개인정보 처리 안내서'를 발간했다.

오픈소스 데이 설문조사(사진=개인정보위 제공) *재판매 및 DB 금지
'책임 있는 오픈소스 AI 생태계' 공감대 형성
먼저, 구글은 비용 효율적인 오픈 소스 모델 운영을 위한 자사 플랫폼 '버텍스 AI'을 소개하면서, LLM 품질 평가 도구와 프롬프트 최적화 기능, 안전성 강화 도구 등 신뢰성·안전성 확보를 위한 도구 활용 방안을 공유했다.
MS는 자사 플랫폼 '애저 AI 파운드리'을 기반으로 에이전트 AI를 구축한 고객사 사례를 제시하면서 차세대 패러다임으로 주목받는 '에이전트 AI' 구축을 위한 오픈소스 모델·도구 활용 가능성을 제시했다.
네이버는 자사 오픈소스 모델 '하이퍼클로바X'와 더불어 공개 데이터셋과 벤치마크, AI 안전성 프레임워크 등 안전한 오픈소스 활용을 위한 도구를 소개하며 국내 오픈소스 생태계 확산에 기여한 그간의 노력을 공유했다.
오픈AI는 새롭게 공개한 자사 오픈소스 모델을 소개하며, 오픈소스 모델이 지니는 경제·사회적 가치와 더불어 안전성에 대한 우려와 책임성, 글로벌 차원의 논의 필요성 등 오픈소스 확산 과정에서 직면하는 과제를 함께 제기했다.
아울러 참석자들은 오픈소스 AI 도입 과정에서 ▲개인·민감정보 필터링 및 검증 절차 ▲미세조정 시 고려사항 ▲레드팀 테스트 설계 방안 등 오픈소스 활용 과정의 안전성 및 신뢰성 보장 방안을 집중적으로 논의하며 '책임 있는 오픈소스 AI 생태계'에 대한 공감대를 형성했다.
최장혁 개인정보위 부위원장은 "이번 오픈소스 데이는 에이전트 AI와 같은 혁신 서비스의 기반이 되는 오픈소스 AI 생태계와 개인정보 보호를 함께 고민하는 국내 첫 공개 논의의 장으로 의미가 크다"며 "기업과 연구자들이 안심하고 오픈소스를 활용할 수 있도록 현장의 목소리를 경청해 정책에 적극 반영하겠다"고 밝혔다.
◎공감언론 뉴시스 [email protected]
