GIST, AI 음향 인식 대회 '언어질의 기반 오디오 소스 분리 부문' 1위

거대언어모델 기반 데이터 증강의 새로운 기법 제시 성과

'언어질의 기반 오디오 소스 분리 부문' 1위를 차지한 지스트 김홍국 교수, 이도현·송윤아 학생(왼쪽부터)(지스트 제공)/뉴스1

(광주=뉴스1) 조영석 기자 = 광주과학기술원(GIST)은 전기전자컴퓨터공학부 김홍국 교수 연구팀이 국제 음향 장면 및 이벤트 탐지 분류(DCASE) 경진대회에서 '언어질의 기반 오디오 소스 분리 부문' 1위와 '실내 음향 이벤트 탐지 부문' 3위의 성과를 거뒀다고 9일 밝혔다.

대회는 국제전기전자공학회(IEEE) 산하 신호처리소사이어티(AASP)가 2013년부터 개최하는 세계적인 대회로 인공지능(AI)을 이용해 소리를 듣고 상황을 판단하는 음향 인식 기술을 겨룬다.

올해는 4월 1일부터 6월 15일까지 108개의 유수 기관 및 대학이 참가해 음향 장면 인식, 기계 이상 진단 확인 등 10개 분야에서 경쟁을 펼쳤다.

'언어질의 기반 오디오 소스 분리(LASS) 기술'은 사용자가 입력한 텍스트에 따라 이에 맞는 오디오 신호를 분리하는 기술이다.

대회에서 지스트 오디오지능연구실(AiTeR) 학생들로 구성된 'GIST-AunionAI' 팀은 다양한 오디오 지능을 표현할 수 있는 AI 기술들을 접목하여 고성능 언어질의 기반 오디오 소스 분리 기술을 개발했다.

'실내외 음향 이벤트 탐지 기술'은 실내외 환경에서 발생할 수 있는 진공청소기 소리, 설거지하는 소리, 차량 소리 등 27종류의 다양한 소리를 AI를 통해 탐지 및 구별하는 기술이다.

한화비전 연구원과 함께 구성된 GIST-HanwhaVision 팀은 다양한 오디오 지능을 표현할 수 있는 AI 기술들을 접목하여 고성능 실내외 음향 이벤트 탐지 기술을 개발, 3위에 올랐다.

김홍국 교수는 "GIST 연구실과 ㈜오니온에이아이, 한화비전이 협업하여 얻은 성과로서 개발된 AI 모델이 연구실에 머물지 않고 사업화로 나아갈 수 있다는 가능성에 그 의의가 매우 크다"고 말했다.

kanjoys@news1.kr