검색 본문 바로가기 회사정보 바로가기

페이스북, 3개월간 아동 누드사진 870만장 삭제

새 기계학습 툴 이용…부적절한 계정도 차단

(서울=뉴스1) 김서연 기자 | 2018-10-25 15:43 송고
(자료사진) © AFP=뉴스1
(자료사진) © AFP=뉴스1

세계최대 소셜미디어 페이스북이 최근 3개월간 어린이 누드사진 870만장을 삭제했다고 24일(현지시간) 밝혔다.
로이터통신에 따르면 페이스북은 미성년자를 성적 대상화 한 사진 등 이미지를 식별할 수 있는 새로운 기계학습 툴(도구)을 이용해 이 같은 작업을 실시했다고 설명했다.

안티고네 데이비스 페이스북 글로벌 안전 책임자는 "(기계학습) 프로그램은 우리가 우선순위를 매길 수 있도록 돕는다"면서 "더 효율적으로 문제가 있는 콘텐츠를 처리할 수 있다"고 설명했다.

페이스북은 이를 통해 과거 '성인 누드사진 필터링' 툴을 이용했을 때보다 더 많은 아동 누드사진을 차단했다고 밝혔으나, 과거에 얼마나 많은 사진이 삭제 또는 차단됐는지는 공개하지 않았다.

페이스북은 또 성적인 의도로 아동에게 접근하는 계정 등도 적발하고 있다고 밝혔다.
그러나 광고회사와 언론사 등은 페이스북의 기계학습 툴이 '정상적인 게시물도 차단하고 있다'고 지적하고 있는 상황.

이에 대해 데이비스는 자동 필터링 시스템이 실수할 수도 있다면서 "그러나 아동 관련 문제에선 신중한 편이 낫다"고 말했다.

페이스북은 새로운 기계학습 툴을 자회사인 인스타그램에 적용하는 방안도 검토 중이다.


sy@

이런 일&저런 일

    더보기