"딥페이크 범죄 방지, 사회적 인식 제고 사업 병행해야"
국민생활과학기술포럼…"AI기본법·국가 AI 위원회 설립 준비"
"생성형 AI 빠르게 발전…관련 규제 보다 유연하게 적용해야"
- 서장원 기자
(서울=뉴스1) 서장원 기자 = 최근 사회적 이슈로 떠오른 딥페이크 범죄와 관련해 예방을 위해 법·제도적 보완 외에도 사회적인 인식 제고 사업을 병행해야 한다는 전문가 의견이 나왔다.
김남철 과기정통부 정보통신정책실 정보통신정책총괄과장은 28일 '생성형 AI의 사회적 이슈와 대응'이라는 주제로 열린 제57회 국민생활과학기술포럼에서 "인공지능(AI) 기술은 계속 진화하고 있고, 법이 선제적으로 대응하는 것에는 한계가 있다"며 이같이 말했다.
생성형 AI는 산업·문화·경제 등 여러 분야에 긍정적인 영향을 미치기도 하지만, 그에 못지않게 많은 부작용도 야기하고 있다. 가짜뉴스, 딥페이크 등이 대표적이다.
특히 최근 국내에서는 텔레그램을 이용한 딥페이크 불법영상물 유포 관련 피해 사례가 속출하면서 문제가 됐다. 피해 범위는 성인과 청소년을 가리지 않고 여러 계층에서 나타났다. 전국교직원노동조합이 실태조사를 진행했는데, 이틀 만에 1400여 건이 접수된 것으로 확인됐다.
피해 규모가 커지자, 정부는 대책 마련에 분주하다. 주무 부처인 과학기술정보통신부는 2022년부터 진행 중인 딥페이크 탐지 및 차단 기술과 관련한 연구개발에 속도를 내고 있다.
제도적인 노력도 병행하고 있다. 김 과장은 "AI기본법 제정을 지난해부터 준비했다. 법적 토대를 마련해 신뢰성을 확보하고 투명성을 높여서 부작용을 방지할 수 있는 최소한의 방어책 마련이 필요하다"면서 "딥페이크 관련해서도 워터마크 등 생성형 AI라는 걸 표기하는 규정 담는 등 반영하려고 한다"고 설명했다.
대통령을 위원장으로 정부, 민간이 참여하는 '국가 AI 위원회' 설립도 준비 중이다. 이달 설치 근거 규정을 공포했고 현재는 민간 위원 위촉 작업을 진행 중인 것으로 알려졌다. 9월 국가 AI 위원회를 출범해 여러 쟁점을 두고 정부 부처, 민간 전문가, 기업이 머리 맞대고 역량을 모은다는 방침이다.
윤혜선 한양대 법학전문대학원 교수는 관련 규제를 보다 유연하게 적용해야 한다고 강조했다. 기존의 법과 제도의 틀에서는 빠르게 변화하는 기술에 대처하기 어렵다는 것이다.
그는 △리스크 기반 접근 △적응형 거버넌스 구축 △규제 샌드박스 제도 확대 운영 △다양한 이해관계자 참여 모델 구축 △국제 협력과 국가 간 규제 조화 등이 이뤄져야 생성형 AI가 주는 혜택을 극대화하면서 위험 요소를 효과적으로 관리할 수 있다고 설명했다.
한진영 성균관대 인공지능융합학과 교수는 "AI라는 파워풀한 무기가 청소년이나 여러 계층이 쉽게 접근할 수 있는 사회가 됐다"며 "부작용 방지 기술을 이슈 발생 때만 단발적으로 활용해선 안 된다. 안전한 AI 사용을 위한 기술 연구와 논의가 지속돼야 한다"고 사회적 노력을 강조했다.
superpower@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.