'아는 여성 옷 벗기기' 저질 AI 앱 성행…범죄 우려에 "접속 차단해야"

美 분석 기업 그래피카 "약 2400만명이 '딥누드' 사이트 방문"
초상권 침해·성범죄 피해 우려…방심위 "세부내용 살펴봐야"

ⓒ AFP=뉴스1 ⓒ News1 박재하 기자

(서울=뉴스1) 윤지원 기자 = 사진 속 인물이 입은 옷을 제거하는 인공지능(AI) 웹사이트가 등장하면서 성범죄 악용 우려가 커지고 있다. 사법적 대응으로는 한계가 있어 피해를 막기 위한 대책을 마련해야 한다는 지적이 나온다.

13일 IT 업계에 따르면 누디파이, 언드레스, 딥누드 등의 이름으로 이른바 '옷 제거' 딥페이크 웹사이트 및 앱이 성행하고 있다. 인물 사진을 올리면 나체를 형상화해 이미지를 조작하는 사이트들이다.

미국 소설 미디어 분석 기업 '그래피카'(Graphika) 보고서에 따르면 지난 9월 한달간 약 2400만명이 이같은 웹사이트에 방문한 것으로 나타났다.

특히 해외 커뮤니티 사이트 '레딧'(Reddit), X, 텔레그램 등을 중심으로 웹사이트 링크가 확산, 유통되고 있었다.

디시인사이드 등 국내 커뮤니티 사이트에서도 링크가 유통되고 있으며 구글에서도 웹사이트 및 앱 다운로드 링크가 검색된다.

이들 업체는 여성의 이미지를 내세우며 홍보하고 있다. 또 고화질, 워터마크 제거 등의 유료 기능으로 수익을 올리고 있다. 그래피카에 따르면 가격대는 기능에 따라 1.99달러(약 2600원)부터 299달러(약 40만원)까지 이른다.

김명주 서울여대 정보보호학과 교수는 "지난 2018년도에 포르노 영화 데이터를 학습한 '딥누드' AI가 개발됐다가 논란이 일자 사라졌는데 포르노 산업 등 음지에서는 기술이 활용되는 것 같다"며 "웹사이트에 접속했다가 악성코드에 감염될 수도 있다"고 말했다.

사진을 올리기만 하면 AI가 이미지를 자동으로 조작하기 때문에 범죄 피해 우려가 크다. 소셜 미디어에서 공개된 사진이나 지인의 사진 심지어는 공개된 아동의 사진을 동의 없이 활용할 수 있기 때문이다.

피해 대상자의 신원이 확인될 경우 명예훼손이나 모욕, 또는 음란물 유포죄로 책임을 물을 수 있다. 사진을 무단으로 사용한 사실이 확인되면 손해배상을 청구할 수도 있다.

다만 유출되지 않고 개인이 소장하는 경우 적발되지 않는 이상 법적 책임을 묻기는 어렵다.

김진욱 법무법인 주원 변호사는 "초상권 침해부터 무단 사용 등 민사적인 손해배상 책임을 물을 수도 있다"면서도 "유포 없이 본인이 소장하는 경우에는 한계가 있다"고 말했다.

방송통신심의위원회 측은 "이전에 성적 수치심을 유발하는 내용을 심의한 유사한 사례가 있긴 하지만 '옷 벗기기' 앱은 앱의 목적 등 세부 내용을 살펴봐야 할 것 같다"고 말했다.

g1@news1.kr