"AI 위험 커지면 서비스 중단" 네이버, 국내 최초 AI 안전성 체계 설계

AI 시스템이 초래할 수 있는 위험을 '통제력 상실 위험'과 '악용 위험'으로 정의

경기도 성남시 분당구 네이버 본사 앞의 모습. 2022.9.26/뉴스1 ⓒ News1 김진환 기자

(서울=뉴스1) 손엄지 기자 = 네이버(035420)가 국내 최초로 인공지능(AI) 안전성 체계를 설계하고 실천 방안을 내놨다. AI 위험이 상당하다고 판단되면 서비스 배포를 중단해 위험을 관리하는 등의 내용을 담았다.

17일 네이버는 자체 기술 채널인 '채널 테크'를 통해 '네이버 ASF'(AI Safety Framework)를 발표했다.

네이버가 AI 시스템을 개발하고 배포하는 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하는 대응 체계다.

네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 '통제력 상실 위험'과 '악용 위험'으로 정의했다.

먼저 인간이 AI 시스템에 영향을 미치지 못하게 되는 '통제력 상실 위험'을 완화하기 위해 AI 시스템의 위험을 주기적으로 평가하고 관리한다.

현존 최고 성능의 AI 시스템을 '프런티어(frontier) AI'로 정의하고, 이 기술 수준에 해당하는 AI 시스템은 3개월마다 위험 평가를 수행한다.

또 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 그 시점에 추가 평가가 이뤄진다.

AI 시스템의 또 다른 잠재적 위험인 '악용'의 가능성에는 'AI 위험 평가 매트릭스(matrix)'를 적용해 대응한다.

AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리하는 체계다.

예를 들어 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화한다.

또 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다.

한편 네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜 나갈 계획이다.

한국 외 다른 지역의 정부·기업과 소버린(Sovereign) AI를 공동 개발해 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다.

하정우 네이버 미래(Future) AI 센터장은 "해외 빅테크는 각자의 기준과 방식으로 AI 안정성 프레임워크를 설계하고 실천하고 있다"면서 "네이버의 ASF는 각 지역의 사회기술적 맥락을 고려하고, '매트릭스' 형태의 위험 평가 구조를 채택한 것이 특징"이라고 설명했다.

이어 "네이버는 AI 안전성 확보를 위해 내부적으로 다양한 평가 방식을 수립해 왔다"면서 "실제 위험이 상당하다고 판단되면 안전조치를 통해 위험을 완화할 때까지 모델 또는 서비스의 배포를 중단해 위험을 관리할 것"이라고 덧붙였다.

eom@news1.kr