AI 학습도 어린아이 인성 교육처럼…네이버·카카오 "윤리적 학습데이터가 관건"

네이버, 민감 질문·편견 데이터세트로 하이퍼클로바 고도화
카카오, 알고리즘 윤리헌장 제정…이미지 생성 '칼로'에 반영

12일 과학기술정보통신부는 '글로벌 AI 안전 콘퍼런스'를 열고 업계 의견을 청취했다. 하정우 네이버 퓨처AI센터장이 강연하는 모습./뉴스1 ⓒ News1 윤주영 기자

(서울=뉴스1) 윤주영 기자 = 네이버(035420)·카카오(035720)는 안전한 인공지능(AI)을 구축하려면 도덕·법률 등을 반영한 정제된 학습 데이터가 필요하다고 강조했다.

어린아이들의 인성교육 데이터처럼 올바른 방향성을 가진 교보재 선택이 중요하다는 의미다. 올바른 학습방향 설정은 AI의 편향성 및 혐오 표현을 예방하는 유일한 방법이기도 하다.

12일 과학기술정보통신부는 '글로벌 AI 안전 콘퍼런스'를 열고 업계 의견을 청취했다.

하정우 네이버 퓨처AI센터장은 민감 질문·선입견 데이터 세트를 활용해 '하이퍼클로바' 시리즈를 고도화한 사례를 들었다.

지난해 네이버 연구진은 AI 답변 필터링 개선을 목표로 윤리·사회과학적 가치가 반영된 데이터 세트를 구축한 바 있다.

우선 258명의 인간 참여자 등을 동원해 민감 질문 데이터 세트(SQuARe)를 구축했다. 이들은 다양성·객관성·윤리 등 9가지 기준을 데이터에 부착 후 AI에 학습시켰다.

이후 질문과 답변 적절성 평가를 반복하며 하이퍼클로바의 필터링을 개선했다.

하정우 센터장은 "민감 질문의 범위는 정치적 책임, 성 역할 등 사회적 맥락에 따라 달라질 수 있다"며 "네이버의 경우 각계 전문가가 참여해 민감질문을 정의하는 데만 1년 반 이상이 소요됐다"고 설명했다.

이어 "기본적인 사전 학습만 거친 언어모델은 지역별 민감 데이터 이해도가 낮기에 이런 작업이 필요했다"고 설명했다.

실제 이 데이터를 하이퍼클로바에 적용하자 부적절한 답변 비율은 45.1%에서 20.8%로 감소했다. GPT3에서도 수치는 22.4%에서 7.8%로 감소했다.

편견 방지를 목적으로 한 데이터 세트(KoSBI) 구축도 비슷한 작업을 거쳤다. 네이버 연구진은 인구를 72개 집단으로 분류 후 데이터에 라벨링했다. 이 역시 반복 학습을 거쳐 AI의 편견 출력을 방지했다.

칼로에 적용된 NSFW 필터가 부적절한 이미지 출력을 방지한 결과(카카오 홈페이지 갈무리)

김경훈 카카오 AI 안전 리더 역시 학습 데이터로 인한 AI 편향성이 우려된다고 했다.

카카오는 이를 방지하고자 2018년부터 알고리즘 윤리 헌장을 제정 후 서비스에 반영 중이다. 학습 데이터 운용은 윤리에 기반하는 한편 아동·청소년 등 AI 이용자를 보호하겠다는 내용을 담았다.

이는 카카오브레인의 이미지 생성 서비스 '칼로'에도 반영됐다. 칼로는 인간이 직접 선정성, 저작권 위반, 부적절한 표현 등 위험 요소를 제거한 데이터를 학습했다.

김 리더는 "기업 등 개별 이해관계자뿐 아니라 글로벌 협력을 통해 AI 안전 표준을 확립해야 한다"고 촉구했다.

legomaster@news1.kr