사내 민감한 정보 줄줄 샐라…'양날의 검' 챗GPT에 삼성 등 딜레마

삼성전자 DS부문 등 국내도 챗GPT 사내 도입
핵심 기밀 유출 우려…관련 규범·보안 강화 필요

미국 인공지능(AI) 회사 오픈AI가 개발한 AI 채팅로봇 '챗GPT' ⓒ 로이터=뉴스1 ⓒ News1 김성식 기자

(서울=뉴스1) 강태우 기자 = '챗GPT'(ChatGPT)를 두고 기업들의 고민이 커지고 있다. 반도체를 포함한 여러 업계가 챗GPT를 미래 먹거리로 삼고 있지만, 기술·정보 유출 우려도 공존해서다.

3일 업계에 따르면 지난달 챗GPT 사용을 허가한 삼성전자 DS(반도체) 부문에서 챗GPT로 인한 정보 유출 우려 상황이 발생했다. 일부 임직원이 반도체 관련 프로그램을 챗GPT에 입력해 오류를 해결하거나 사내 회의 내용을 넣어 회의록 작성을 한 경우가 발견됐다. 이에 회사는 질문당 입력 글자 수를 제한하는 등의 긴급조치에 나섰다.

업계에선 일찌감치 이같은 문제를 우려해왔다. 앞서 삼성전자도 '챗GPT에 입력된 모든 정보는 외부 서버에 저장되기 때문에 회사 주요 정보 및 개인 정보 유출에 주의해야 한다'고 고지한 바 있다. 다만 정보 유출 가능성에도 불구하고 산업계 메가트렌드가 된 챗GPT의 사용 자체를 막는 것은 쉽지 않다는 지적이다.

한 대기업 관계자는 "오남용 사례는 경계해야 하는 부분이지만 디지털 혁신과 시대적 흐름이라는 부분에서 (사내에서) 임직원들이 챗GPT를 사용하지 못하게 막을 이유나 근거가 없다"고 말했다.

전 세계 챗GPT 열풍은 학교, 정부, 지자체를 포함한 산업 전방위로 번졌다. 사내에서 챗GPT는 아이디어 공유, 오류 수정, 보고서 작성 등에 유용하게 활용될 수 있어 이를 도입하는 기업 사례도 늘고 있다. LG전자(066570), 카카오(035720) 등 주요 대기업들도 임직원들에게 챗GPT를 제약 없이 열어둔 것으로 알려졌다.

문제는 반도체 기술 정보를 비롯한 회사의 민감한 정보가 포함됐을 때다. 챗GPT에 한 번 정보가 입력되면 데이터베이스(DB)가 외부 서버에 전송·저장되고 회수하기 어렵다. 그렇기 때문에 이같은 기밀 정보가 학습될 경우 불특정 다수에게 회사의 핵심 기밀 사항이 제공될 수 있다는 지적이다.

서울 서초구 삼성전자 서초사옥 로비에서 직원들이 오가고 있다. 2023.1.31/뉴스1 ⓒ News1 임세영 기자

이런 상황을 방지하기 위해 SK하이닉스는 사내망에서 챗GPT를 금지하고, 임직원이 꼭 필요한 경우 사용 목적 등을 보고해 승인받는 허가제를 도입했다. 삼성전자 DX(디바이스경험) 부문도 현재 챗GPT 접속을 차단한 상태다. 다만 지난달 31일 임직원 대상으로 챗GPT 사용 경험과 허용과 관련한 설문조사를 시행하면서 향후 챗GPT를 개방할 여지는 있다.

업계 관계자는 "사내 PC로 챗GPT 사용 시 회사 내부에 있는 내용 및 정보를 그대로 긁어 복사, 붙여넣기 할 수 있는데, 정보 유출 사고가 될 가능성이 높아 일부 기업들에선 사내망 사용을 금지하는 것으로 보인다"고 말했다.

글로벌 기업들은 챗GPT 도입 부작용을 막기 위해 애초에 원천 차단하는 방식을 선택하거나 이를 안전하게 활용할 대책 마련에 나서는 중이다.

미국 JP모건, 골드만삭스 등 금융권 주요 기업들은 임직원의 챗GPT 사용을 제한하고 있다. 일본 미즈호파이낸셜그룹과 미쓰비시UFJ은행, 미쓰이스미토모은행 역시 챗GPT 등 대화형 AI를 업무에 이용하는 것을 금지하고 있다.

일본 소프트뱅크는 지난 2월 모든 직원에게 챗GPT에 기밀 정보 입력을 중단할 것을 통보하고 챗GPT 사용 규칙을 만들기로 했다. 또한 파나소닉홀딩스 산하 파나소닉커넥트는 정보 유출 대책 마련 후 대화형 AI 사용을 허가했다. 히타치 제작소는 대화형 AI 이용과 관련해 윤리상의 새로운 규칙 제정을 검토한다는 방침이다.

삼성전자도 내부 지침 마련에 나설 것으로 보인다. 삼성전자 관계자는 "새로운 서비스가 등장하고 사내에 도입되면 그에 따른 규범을 만드는 게 회사의 역할"이라며 "챗GPT 활용에 대한 가이드라인을 만들고, 내부 보안 역시 강화해나갈 것"이라고 말했다.

burning@news1.kr