WHO, "의료보건분야 AI 부정확 정보 생성" 경고
AI가 슈퍼바이러스·독성 악화 결과 낳을 수도
정보 없어도 답하는 '환각'과 AI 접근성도 문제
[서울=뉴시스]한휘연 인턴 기자 = 세계보건기구(WHO)가 의료 분야에 사용되는 인공지능(AI)에 대한 우려를 표명했다. AI를 활용해 건강정보에 대한 접근성을 개선하고 진단 능력을 제고할 수 있지만, 데이터의 편향이나 오용 가능성이 있어 공공의료에 사용하는 데 주의해야 한다는 것이다.
22일(현지시간) 미국 매체 액시오스는 이 같은 내용의 WHO 성명과 함께 의료보건용 AI 사용의 위험성이 AI의 무기화로 이어질 수 있다고 전했다.
WHO는 16일 성명을 통해 모집단을 완전히 반영하지 못하는 데이터를 사용하는 AI가 부정확한 정보를 생성할 수 있다고 경고했다. WHO의 연구에 따르면 AI를 이용한 치료 과정에서 피해를 볼 확률은 300분의 1(약 0.33%)이며 이는 대부분 데이터 오류로 인해 발생한다.
WHO는 편향된 데이터 학습으로 인한 부작용과 더불어 확인되지 않은 데이터로 인한 부정확한 답변이 생성돼도 '그럴듯하게' 보일 수 있다는 점도 우려했다. 신뢰 여부를 판단하기 힘든 비전문가에게 AI가 주는 의료 정보가 매우 설득력 있는 것처럼 보일 수 있다는 것이다.
액시오스는 WHO의 입장과 함께 의료보건용 AI가 낳을 수 있는 몇 가지 부정적 결과를 설명했다.
AI의 빠른 속도엔 단점도…슈퍼 바이러스 변이·예상 밖 결과물 등
전문가들은 AI를 사용해 만들어진 인공 유기체가 유출돼 기존 생태계를 파괴하고 우발적인 변이를 일으켜 대응 불가능 상태의 신종 전염병이 닥칠 것을 우려했다. 인공 유기체 AI 관련 사업을 하고 있는 션 맥클레인은 "새로운 유기체를 만드는 AI 모델은 일반 대중에게 공개돼서는 안 된다. 그것은 국가 안보 관점에서 정말 중요하다"고 말했다. 그는 안보 관점에서 자신의 사업에 대한 국가기관의 감독 절차에 찬성했다.
AI가 실험실에서 의도하지 않은 결과를 낼 수도 있다. 실험 과정에서 발생한 실수가 테러로 이어질 가능성이 있다고 연구원들은 경고했다. 2022년 관련 연구원들은 과학 잡지 "네이처"에 AI를 사용해 6시간 만에 4만 개의 새로운 화학무기 화합물을 만들 수 있음을 증명했다. 해당 연구에서는 독성을 예측하고 이를 줄이기 위해 AI 모델을 사용했으나 의도와는 달리 독성이 증가한 결과물이 나타났다.
AI가 만들어낸 '환각'과 AI 접근성 문제도 떠올라
일부 의료 스타트업은 오류 확률과 인용 자료 부족을 개선하기 위해 AI가 생명과학과 생물의학 등 보건복지 데이터베이스 엔진 등만을 학습하는 방향으로 전환했다. 한 회사는 "의학 연구자들을 위한 회사의 최신 AI는 '없는' 차선책을 찾도록 하지 않는다"며 "원하는 답을 원문을 인용해 제시하고 있다"고 설명했다.
AI 기반 의료의 접근성 문제도 떠올랐다. 독일에서는 1형 당뇨병 환자들이 AI를 사용한 스마트 기기와 인터넷으로 혈당 수치를 더 잘 조절할 수 있으나 미국에서는 아직 그 서비스가 제공되지 않는다. 지난해 9월 미국 식품의약청(FDA) 보고서에 따르면 현재 FDA는 미국 시장에 출시되는 AI 기반 앱과 전자기기의 공급과 수요를 적절하게 감당할 준비가 되어 있지 않다.
한편 의료 연구가 무기화될 가능성 외에도 의료 환경에서 사용되는 AI 역시 기존 AI 사용의 주요 문제점으로 지적됐던 학습한 데이터에 내재된 인종·성별·지리적 격차의 심화도 우려되는 것으로 지적됐다.
◎공감언론 뉴시스 [email protected]