구글 "AI시대 취약점 방어 핵심은 악성코드 생성 주체 탐지"

아만도 워커 총괄 "AI 스스로 공격 단계는 아니지만 대비해야"
곽진 교수 "AI 이중성 이해 필요…규제는 최소한으로"

아만다 워커 구글 보안·개인정보보호 연구 개발 총괄이 발언하고 있다.(구글코리아 제공) ⓒ News1 김민석 기자

(서울=뉴스1) 김민석 기자 = "AI(인공지능)로 고도화한 악성코드나 보안 취약점 공격을 대비하고 방어하려면 사람이 만든 코드인지, AI를 활용한 코드인지 탐지하는 것이 핵심입니다. 어떻게 만들었느냐에 따라 대처 방안이 달라지기 때문입니다."

아만다 워커 구글 보안·개인정보보호 연구개발 총괄은 서울 서초구 JW메리어트호텔에서 열린 '세이퍼 위드 구글' 미디어 세션에서 "아직은 사람이 AI를 활용해 악성코드를 만들고 있지만, 앞으로 AI 자동 공격도 대비해야 한다"며 이같이 말했다.

아만다 워커 총괄은 구글의 보안·개인정보 분야를 이끌어온 보안 분야 리더다. 구글에 13년 이상 근무하며 구글 핵심 보안·개인정보보호 분야 시스템·조직·실행 전략 등을 구축했다.

아만다 워커 총괄은 "현재 AI 보안과 관련해 가장 집중 연구하는 분야는 AI를 활용해 만든 콘텐츠(코드·데이터·이미지 등)인지를 탐지하는 것"이라며 "패턴들이 다양해 굉장히 어려운 작업이지만, 향후 AI를 활용한 공격에 성공적으로 대응하려면 수많은 패턴을 파악할 필요가 있다"고 언급했다.

이어 "공격자는 수많은 공격 중 한 번만 성공하면 되지만, 방어자 입장에선 끊임없이 경계해야 하고 완벽함을 추구해야 해 '방어자의 딜레마'(Defender’s Dilemma) 상황에 놓인다"며 "AI 기술을 연구해 방어 역량을 강화하고 교육 투자를 병행하면 딜레마를 해결할 수 있다"고 강조했다.

공격 측이든 방어 측이든 아직 AI가 스스로 악성코드 등을 생성·실행하지 못하는 점은 일면 다행인 부분이다.

아만다 워커 총괄은 최근 글로벌 단위에서 사이버 공격이 늘어난 이유가 AI가 자동으로 공격하기 때문인가라는 질문에 "현재 기술 수준으로 AI 또는 거대언어모델(LLM)이 스스로 코드를 만들고 취약점을 발견하는 건 쉽지 않은 일"이라며 "AI가 자체적으로 실행하는 단계는 아직 오지 않았다"고 설명했다.

곽진 아주대학교 사이버보안학과 교수가 발언하고 있다.(구글코리아 제공) ⓒ News1 김민석 기자

이날 곽진 아주대학교 사이버보안학과 교수는 "AI는 어떻게 사용하느냐에 따라 훌륭한 방어 도구가 될 수도, 악의적인 공격 도구가 될 수 있는 이중성이 있다"며 "AI가 고도화할수록 공격자의 취약점을 찾아내는 능력이 높아질 수 있다는 부분은 상당한 위협으로 다가온다"고 우려했다.

이어 "한국은 유럽 등 해외에서 실행한 규제를 도입하려는 경향이 강하다"며 "다만 법·제도를 통한 규제는 어떤 문제가 발생했을 때 보호하는 최소한의 방향으로 가야 한다. AI의 양면성을 이해하면서 AI 기술을 최대한 활용하는 방안을 고민해야 한다"고 했다.

한편 구글 트렌드 검색어 분석에서 한국은 지난해 △피싱 △멀웨어(악성 소프트웨어) △랜섬웨어(악성 소프트웨어로 데이터 암호화 공격) 등 키워드를 각각 가장 많이 검색한 국가로 꼽혔다.

ideaed@news1.kr