서울시, '지자체 최초' 생성형 AI 윤리 가이드라인 마련
'이용자 중심·위험예방·지속가능성' 3대 원칙 제시
- 박우영 기자
(서울=뉴스1) 박우영 기자 = 서울디지털재단은 '서울시 생성형 인공지능(AI) 윤리 가이드라인'을 13일 발표했다. 가이드라인은 지난달 26일 서울시가 제시한 서울시민 AI 일상화 3대 프로젝트 중 하나다.
가이드라인은 생성형 AI의 특성과 서울시 핵심가치를 함께 고려했다. 이용자를 중심으로, 운영자·개발자가 지켜야 할 윤리적 준수사항을 포함했다.
서울시는 산·학·연 전문가 의견을 수렴해 가이드라인 추진방향과 3대 기본원칙을 도출하고, 이를 바탕으로 9대 핵심요건을 제시했다.
3대 기본원칙은 '이용자 중심, 위험예방, 지속가능성'이다.
'이용자 중심'은 이용자 참여에 따라 새로운 AI 위험요인이 나타나는 만큼 이용자 중심 가이드라인 마련이 필요하다는 내용이다.
'위험예방'은 AI가 활용도만큼이나 위험도 있을 수 있어 생성형 AI의 위험을 기반으로 핵심요건을 도출해야 한다는 내용이다.
'지속가능성'은 도시경쟁력을 약화시키는 범죄·환경오염 등의 도시 문제를 생성형 AI를 통해 해소할 필요가 있으며, 이를 위해 윤리 가이드라인에 지속가능성의 개념이 필요하다는 내용이다.
9대 핵심요건은 △이용자의 검증 역량 △책임성 △데이터 권리와 책임 △사용가능성 확보 △AI 학습데이터 안전성 △AI 윤리 소양 △공공성 △생태적 지속가능성 △보안성이다.
가이드라인에는 이해관계자(이용자·운영자·개발자)가 가이드라인 준수를 위해 알아야 할 핵심요건별 위험유형, 실제사례, 배경과 주의사항도 담긴다.
강요식 서울디지털재단 이사장은 "생성형 AI가 확산되는 가운데 가짜뉴스, 개인정보 침해 등 AI 위험 우려도 커지는 상황"이라며 "지자체 최초의 AI 윤리 가이드라인으로 시민들이 안전하고 편리하게 AI를 활용하기를 기대하며 건전한 AI 활용문화를 위해 노력하겠다"고 말했다.
alicemunro@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.