AI 챗봇 윤리 가이드라인 나왔다…"심리상담 등엔 '챗봇 대화' 명시 안해도 돼"

기사등록 2023/09/03 12:00:00

최종수정 2023/09/03 14:20:05

한국인터넷자율정책기구, 챗봇 윤리 가이드라인 마련

개발자·운영자,·이용자 행동 윤리를 상호보완적으로 제시

KISO 키소 CI
KISO 키소 CI
[서울=뉴시스]최은수 기자 = 인간과 교감하며 대화하는 인공지능(AI) 챗봇 서비스가 인간에게 도움이 되는 방식으로 활용될 수 있도록 하는 윤리 가이드라인이 나왔다.

한국인터넷자율정책기구(이하 KISO)는 4일 챗봇 서비스의 신뢰도를 높이고 윤리적 문제에 대응하기 위해 ‘챗봇 윤리 가이드라인’을 마련·발표했다.

AI 전성기를 맞이해 인공지능 윤리와 법률들이 마련되고 있으나 민간기구를 통해 챗봇에 특화된 윤리 가이드라인이 마련된 것은 이번이 처음이다. 회원사들은 이 가이드라인을 자율적으로 적용하며, 이를 바탕으로 각 서비스의 정책을 마련할 수 있다.

현재 KISO에는 네이버와 카카오를 비롯해 2002년 일상대화 챗봇 서비스를 선보인 ‘심심이’, 대화형 AI 챗봇 ‘이루다’를 서비스 중인 ‘스캐터랩’, 인공지능 자연어처리 스타트업 ‘튜닙’ 등 대부분의 챗봇 서비스 업체가 KISO 신기술위원회에 참여해 자율규제에 동참하고 있다.

챗봇은 인간과 직접 대화하며 친구가 되어주거나 궁금증 해소와 같은 도움을 줄 수 있다. 심리 상담에 사용되는 챗봇은 인간과 상호작용을 통해 우울증 개선 효과를 주기도 한다. 최근에는 오픈 AI의 검색기반 대화 ‘챗GPT(ChatGPT)’가 등장하고 챗봇이 인간과 비슷한 수준의 상호작용을 제공하는 것이 가능해졌다.

다만 챗봇에 지나치게 의존하거나 챗봇을 잘못 활용하는 경우, 혹은 사회적 약자에 대한 편견이나 부정적 시각이 챗봇을 통해 걸러지지 못하는 경우, 부정적 영향이 초래될 수 있다.

다양한 분야에서 AI 챗봇의 이용이 증가하고 있고 인간과 챗봇의 구분이 어려워지는 시기가 빠르게 다가올 것으로 예상됨에 따라 KISO 신기술위원회는 지난해 10월 인간에게 도움이 되는 방식으로 챗봇을 활용할 수 있도록 하는 행동 윤리의 마련에 착수했다고 설명했다.

‘챗봇 윤리 가이드라인’은 ▲인간의 존엄성 및 권리 존중 원칙 ▲프라이버시 보호 및 정보보안 원칙 ▲다양성 존중 원칙 ▲투명성 원칙 ▲책임 원칙으로 구성된 5가지 기본원칙을 제안했다. 챗봇 서비스 개발과 운영, 활용과정에서 발생가능한 인공지능의 편향, 권리침해 등 윤리적 문제에 대응하기 위해 개발자뿐 아니라 운영자, 이용자에게도 필요한 행동 윤리를 상호보완적으로 제시했다.

예를 들어 일반적 상황에서는 대화 상대가 챗봇임을 이용자에게 미리 밝히도록 하면서도 심리 상담 등의 특수한 경우, 즉 챗봇임을 밝히지 않는 것이 더 유의미한 효과를 가져올 수 있는 경우에는 이를 밝히지 않을 수 있다고 명시했다.

가이드라인에는 챗봇 서비스를 개발하고 활용하는 전 과정에서 이용자의 다양성을 존중하고, 편향과 차별을 줄이기 위해 노력해야 한다는 내용도 담겨 있다. 모든 이용자의 접근성이 향상될 수 있도록 아동과 청소년, 노인층, 장애인을 고려한 접근 화면 단순화, 기능 추가에 대한 내용도 포함했다.

이재신 KISO 신기술위원회 위원장(중앙대 미디어커뮤니케이션학부 교수)은 “챗봇 윤리 가이드라인은 챗봇을 개발·운영하는 데 필요한 행동윤리 기준을 제시하는 최초의 민간 주도형 자율적 가이드라인이라는 점에서 의미가 크다”며 “자율규제는 인공지능의 부정적 효과를 최소화하면서도 서비스 발전을 저해하지 않도록 높은 유연성·신속성·효율성을 제공하는 장점을 지닌다”고 밝혔다.


◎공감언론 뉴시스 [email protected]
button by close ad
button by close ad

AI 챗봇 윤리 가이드라인 나왔다…"심리상담 등엔 '챗봇 대화' 명시 안해도 돼"

기사등록 2023/09/03 12:00:00 최초수정 2023/09/03 14:20:05

이시간 뉴스

많이 본 기사