"인공지능법률안 권리침해 간과"…인권위, 국회·정부에 개선 의견 표명
AI 정보 유출 등 부작용 이어져…"구제 절차 법제화해야"
"고위험영역 AI 대상 법적 확대…재정의 필요성도 강조"
- 김예원 기자
(서울=뉴스1) 김예원 기자 = 국가인권위원회(인권위)가 국회 등에서 논의 중인 인공지능(AI) 법률안에 영역별 위험성을 고려한 인공지능 정의와 권리 침해를 당한 피해자 구제 절차 등을 포함할 것을 요구했다.
인권위는 제22차 상임위원회에 상정된 'AI 법률 제정안에 대한 의견표명안'과 관련해 이같은 개선방안을 국회 및 과학기술정보통신부에 내기로 결정했다고 29일 밝혔다.
AI 법률안은 기술 발전, 기본권 보호 등 생활에 광범위하고 비가역적인 영향을 미치는 '고위험 영역 AI'를 규정하고 발전시키기 위한 기본계획의 수립을 골자로 한다.
해당 법률안이 국회를 통과하면 AI 산업 진흥 및 규제 내용이 국무총리 소속 인공지능위원회에서 의결될 수 있다. 개인정보 수집, 혐오 표현 등 AI 윤리원칙도 대통령령으로 제정해 공표할 수 있다.
인권위는 그러나 현재 논의되는 AI 법안이 정보수집 과정에서 일어날 수 있는 권리 침해를 간과하고 고위험 영역 AI의 범위를 협소하게 정의하고 있다고 지적했다.
AI는 온라인에서 수집한 방대한 정보를 기반으로 서비스를 제공하고 활용하므로 그 과정에서 이용자와 정보주체의 권리를 침해할 가능성이 크기 때문이다.
AI 챗봇 '챗GPT'를 개발한 오픈AI가 정보수집 과정에서 이용자 정보를 유출한 사고가 대표적이다. 한국인 피해자도 700명 가까이 포함돼 개인정보보호위원회는 오픈AI에 관련 자료 제출을 요구하고 27일에는 과태료 처분도 내렸다.
그러나 자료 제출 요구 등 진상규명이 AI 기업의 협조 여부에 달려 있어 실효성이 떨어진다는 우려가 있다. 이에 따라 인권위는 AI 권리 침해를 당한 이용자와 정보주체를 위한 구제절차도 현재 논의되는 법안에 포함될 필요가 있다고 판단했다.
규제 대상인 고위험 영역 AI의 범위가 협소하다는 것도 인권 침해 가능성을 높일 수 있다고 우려했다. 해외에선 고위험군에 속하는 생체정보 기반 신원 확인 AI 등이 현재 논의되는 법안에선 규제 예외 대상이다.
유럽연합(EU) 집행위원회의 인공지능법은 AI를 '낮은 위험', '고위험', '용인할 수 없는 위험'으로 분류해 개발 및 활용을 단계별로 제한한다. 하지만 국내 법안에선 고위험 영역의 AI에만 규제를 제한하고 있다. 인권위는 이같은 기준을 참고해 고위험 영역 AI의 대상을 법적으로 확대 및 재정의할 것을 요구했다.
과학기술정보통신부가 AI 기술 육성과 규제를 동시에 담당하는 체계도 개선해야 한다고 봤다. 인권위는 기술 진흥 자체는 과기정통부 등 소관 부처가 담당하되 인공지능 감독 및 규제는 제3의 기관이 독립적으로 수행하는 방안을 권고했다.
최병호 고려대 인공지능연구소 교수는 "원자력 통제부터 공공기관 복지까지 다양한 의사결정 과정에 AI가 도입되고 있으며 1~2년 안에 이같은 의사결정 시스템이 일상화할 것"이라면서 "인공지능법을 조속히 도입하고 산업 육성과 규제의 건강한 긴장관계가 성립하게 관리체계를 구축할 필요가 있다"고 말했다.
kimyewon@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.