정부, 챗GPT 보안 유의 당부…"개인정보·비공개 자료 입력 안돼"

지난 2일 '챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내' 공문 전달
"공개된 정보 위주로 챗GPT 사용해야"…국정원 보안성 검토도 강조

미국 인공지능(AI) 회사 오픈AI가 개발한 AI 채팅로봇 '챗GPT' ⓒ 로이터=뉴스1 ⓒ News1 김성식 기자

(서울=뉴스1) 윤지원 이기범 기자 = 정부가 전부처 공무원에게 챗GPT 등 생성형 인공지능(AI) 활용 시 보안에 유의해달라고 당부했다.

3일 정부 부처 등에 따르면 전날 국가정보원은 '챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내' 공문을 전부처에 전달했다.

공문에 따르면 공무원은 공개된 정보 위주로 보안에 유의해 챗GPT를 사용해야 한다. △개인정보 △비공개 업무자료 등 민감정보 입력 시 정보가 유출될 수 있기 때문이다.

공문은 "최근 챗GPT 등 대형 언어모델(LLM) 기반 인공지능 기술의 업무 활용 소요 증가에 따라 정보 수집·데이터 유출 등 보안 우려가 지속 제기되고 있다"고 밝혔다.

또 'GPT API' 도입 등 대형 언어모델 기반의 AI 기술을 활용한 정보화 사업을 추진할 때 국정원의 사전 보안성 검토를 거쳐야 한다.

'국가 정보 보안 기본 지침' 제15조 제1항 제19호에 따르면 첨단 정보 통신 기술 활용 정보화 사업으로서 국정원장이 해당 기술에 대해 안정성 확인이 필요하다고 지정하는 사업은 국정원 보안성 검토 대상에 해당한다.

정부뿐만 아니라 기업들도 최근 챗GPT 활용으로 인한 보안 유출 방지에 나서고 있다. 삼성전자는 직원들에게 챗GPT, 마이크로소프트의 검색엔진 빙(Bing) 등 생성형 AI 사용을 잠정 제한하기로 했다.

g1@news1.kr