"고민상담 챗봇 정체 안밝혀도 된다"…민간 최초 'AI 챗봇 윤리' 가이드

대화형 AI 개발·활용시 고려해야 할 5가지 강조

ⓒ News1 DB

(서울=뉴스1) 오현주 기자 = 네이버·카카오가 속한 민간 기구에서 인공지능(AI) 챗봇 서비스를 다룰때 필요한 '윤리 가이드라인'을 처음 발표했다.

4일 한국인터넷자율정책기구(KISO)에 따르면 가이드라인은 △인간의 존엄성 및 권리 존중 원칙 △프라이버시 보호 및 정보보안 원칙 △다양성 존중 원칙 △투명성 원칙 △책임 원칙을 포함한 총 5가지로 구성됐다.

가이드라인 제정에 참여한 기업은 △네이버 △카카오 △일상 대화 챗봇 서비스를 출시한 '심심이' △AI 챗봇 '이루다'를 운영하는 스캐터랩 △AI 자연어처리(NLP) 스타트업 튜닙 등이다.

민간 기구에서 AI 챗봇에 특화된 윤리 원칙을 마련한 것은 처음이다.

해당 가이드라인은 다양한 상황에 적용될 수 있도록 구성됐다. 예를 들어 일반적인 상황에서는 대화 상대가 챗봇임을 이용자에게 미리 밝히도록 했다. 다만 고민 상담 같은 특수 상황에서는 챗봇임을 알리지 않을 수도 있다고 설명했다.

AI 챗봇을 개발하고 활용하는 모든 과정에서 이용자의 다양성을 존중하고 편향·차별을 줄이기 위해 노력해야 한다는 내용도 담겼다.

특히 △아동 △청소년 △노인층 △장애인을 고려해 AI 챗봇 접속 화면을 단순하게 만들어야 한다고 강조했다.

KISO 신기술위원회 위원장인 이재신 중앙대학교 미디어커뮤니케이션학부 교수는 "챗봇 윤리 가이드라인은 최초의 민간 주도형 자율적 가이드라인"이라며 "자율규제는 AI의 부정적 효과를 최소화하면서도 서비스 발전을 저해하지 않도록 높은 유연성‧신속성‧효율성을 제공하는 장점을 지닌다"고 말했다.

woobi123@news1.kr