[이성엽의 IT프리즘]생성형 AI에 대한 규제 필요한가

이성엽 고려대 기술경영전문대학원 교수/기술법정책센터장

(서울=뉴스1) 이성엽 고려대 기술경영전문대학원 교수/기술법정책센터장 = 작년 11월 출시된 오픈AI의 생성형(Generative) AI인 챗GPT가 폭발적으로 보급되면서 AI의 위험성을 규제해야 한다는 논의가 이어지고 있다. 3월 말에는 일론 머스크 테슬라 최고경영자, 애플 공동창업자 스티브 워즈니악, 베스트셀러 작가 유발 하라리 등 AI 석학 1,000여명이 독립적인 외부 전문가가 감독하는 안전 프로토콜을 개발할 때까지 모든 AI 연구실에서 GPT-4보다 강력한 AI 개발을 최소 6개월 간 중단할 것으로 요청했다. 특이하게도 오픈AI는 물론 이에 투자한 마이크로소프트도 규제가 필요하다는 입장이라는 점이다.

일론 머스크 등이 오픈AI에 대한 견제 차원에서 기술개발 중단을 요청한 것이라는 분석도 있지만, 피규제자인 오픈AI마저 규제 필요성을 인정하는 것을 보면 예상보다 생성형 AI의 발전속도가 빠르다는 것과 생성형 AI의 성능과 인류에 대한 영향이 지대하는 것에 대해서는 공감대가 이루어진 것이라고 할 수 있다. 그렇다면 과연 AI에 대한 규제는 왜 필요한 것일까.

가장 큰 문제는 생성형 AI의 결과물의 진실성의 문제, 즉 소위 환각(hallucination) 이슈이다. 이는 생성형 AI가 사실과는 다른 정보를 생성하거나 관련성이 없는 답변을 하는 것을 말한다. 이는 생성형 AI의 특성인 대규모 언어 모델(Large Language Model)에서 발생하는 것인데, 통계적으로 확률이 높은 단어를 연쇄적으로 생성해가는 작동원리가 그 원인이 된다.

이에 따라 생성형 AI의 결과물에는 오정보(misinformation)와 역정보(disinformation)가 다수 발견되며, 이용자가 이를 그대로 수용하는 경우 막대한 피해가 생길 수 있다. 의료나 법률 분야의 오정보는 특히 위험성이 높다. 또한 생성형 AI는 역정보 내지 허위조작 정보, 즉, 가짜 뉴스를 만드는데 이용될 수 있다. 정치인, 공무원, 연예인 등 공개된 정보가 많은 경우 그럴 위험성이 높다. 또한 AI의 일반적 특성인 편향성도 문제가 될 수 있다. 대규모 언어모델도 편항된 데이터를 학습하거나 설계자의 개인적 편향으로 인해 편향된 결과물이 생성할 수 있다.

둘째, 생성형 AI가 데이터를 학습하는 과정에서 저작권과 개인정보를 침해할 가능성이다. 생성형 AI는 웹 스크랩핑, 오픈소스 저장소 마이닝 등을 통해 얻은 데이터로 언어모델을 훈련시켜 작동하는데, 이 데이터에 저작권이 설정된 데이터나 개인정보가 포함될 수 있다. 저작권이 없더라도 생성형 AI가 저작물을 학습용 데이터로 이용할 수 있는지, 공개된 개인정보의 경우 정보주체의 동의 없이도 이용 가능한 것인지가 쟁점이다. 미국에서는 이미지 도용을 원인으로 생성형 AI에 대한 소송이 진행되고 있으며, 이탈리아 데이터보호청은 챗GPT의 개인정보 유출과 무단 이용을 이유로 잠정적으로 접속을 중단했다.

셋째, 고용과 교육에 미칠 영향이다. 글로벌 투자은행(IB)인 골드만삭스는 최근 보고서에서 생성형 AI 발달로 미국과 EU의 일자리의 4분의 1이 자동화할 것으로 봤다. 업종별로 보면 사무·행정 지원 근로자(46%), 법률(44%), 건축·공학(37%), 생명·사회과학(36%), 경영·금융(35%), 사회 서비스(33%), 관리(32%), 판매(31%) 순으로 나타났는데, 상위권은 대부분 화이트칼라 업종이 차지했다. 한편 미국 스탠포드대 인간중심 인공지능연구소((Human-Centered AI Institute)는 다양한 분야에서 생성형 AI가 미칠 영향을 분석한 보고서를 발표했는데. 교육 문제에 대해 ‘진행 중인 재앙(disaster in the making)’이라는 표현을 사용해 다른 분야 대비 매우 비관적인 전망을 했다. 새로운 자동 작성 도구로서 AI 활용은 전문적인 환경에서는 성과를 향상시킬 수 있으나 교육 환경 등 특별한 고려 사항이 없는 곳에서는 창의력을 잠식할 수 있다는 것에 대해 큰 우려를 표시했다.

넷째, 생성형 AI를 오남용하는 문제이다. 우선 사이버 공격에 생성형 AI를 이용하는 경우이다. 누구나 쉽게 사이버 공격을 위해 생성형 AI를 이용해 다양한 악성소프트웨어를 만들 수 있다. 또 사용자가 영업비밀 또는 개인정보를 생성형 AI에 입력하면 이들이 유출될 우려가 있다. 이미 일부 기업은 이미 생성형 AI 사용 시 영업비밀이나 개인정보를 입력하지 말도록 가이드를 만들어 시행하고 있다.

다섯째, 챗GPT 안에 외부 서비스를 모아 기능을 높이는 일종의 추가 확장 소프트웨어를 지칭하는 플러그인 기능은 마치 애플과 안드로이드 앱 생태계처럼 별도의 챗GPT 생태계를 구축하면서 AI 플랫폼 독점, 기술·데이터 종속 문제를 발생시킬 수 있다. 또한 AI를 이용할 수 있는 계층, 국가와 그렇지 못한 계층, 국가 간 소외, 불평등도 심화될 수 있다.

이런 이슈들에 대해, 규제받지 않는 AI는 인류에게 위협이 될 것이기 때문에 통제할 수 없는 상황이 오기 전에 미리 규제 논의를 서둘러야 한다는 입장과 이는 과도한 우려에 불과하며 AI 개발을 진행하면서 부작용을 최소화하려는 것으로 충분하다는 입장이 대립하고 있다.

전자의 입장에서 EU, 미국, 한국 등은 AI 규제 입법을 시도하고 있다. 대부분 고위험 AI에 대해 사전 고지, 영향평가, 신뢰성과 안전성 조치의무 등 사전적 규제를 포함하고 있는 것이 특징이다. 다만, 제기된 이슈들은 이미 플랫폼, 데이터 경제 시대에도 존재하던 것으로 사전적, 사후적 정책적 대응이 필요한 것이지 반드시 사전적 규제가 필요하다고 보기는 어려운 것들이다. 아직 EU를 제외하면 플랫폼에 대해서도 규제입법이 가시화되지 않고 있다.

오히려 기술 진보를 사전적으로 예측하고 선제적으로 법제를 도입하는 것은 자칫하면 현실적 집행이 곤란한 규제를 양산할 수 있으며, 기술 혁신으로 인한 편익을 저해할 수도 있다. 사전 규제, 사후 규제, 정부 규제, 자율규제 등 다양한 규제방식 중에서 기술 진보에 유용하게 대응하면서 사회적 위험을 최소화할 수 있는 유연하고 탄력적인 방식을 채택할 필요가 있다.

스탠포드 연구소의 의견대로 생성 AI 모델이 산업과 사회, 우리 삶에 미치는 영향은 매우 클 것이다. 한편으로는 인간의 노동력을 보완하여, 우리 삶이 더 생산적이고 창의적일 수 있도록 할 것이나, 다른 한편으로는 우리의 편견을 강화시키거나, 정보에 대한 신뢰를 떨어뜨릴 수 있다. 결국 기술의 양면성은 보편적인 것이며 어떻게 기술을 인간에 유용하게 사용할 것이냐가 중요한 것이다. AI가 인간을 대체하는 것에 대해서도 적절한 대응이 필요하지만, AI를 이용하지 않는 자가 이용하는 자에 의해 대체될 가능성에 대해서도 유의해야 할 것이다.

haezung2212@news1.kr