'악기·노래 소리에만 반응'…음악본능 인공지능으로 밝혀냈다

KAIST 정하웅 교수팀 인공신경망 모델 활용해 규명
"음악에 대한 학습 없이도 음악 인지기능 자발적 형성"

음악이 포함되지 않은 자연소리 인식을 학습한 인공신경망의 잠재 공간에서 음악과 비음악의 구분.(KAIST 제공)/뉴스1

(대전=뉴스1) 김태진 기자 = 국내 연구진이 사람의 음악 본능을 인공지능(AI)으로 규명했다.

한국과학기술원(KAIST)은 물리학과 정하웅 교수 연구팀이 인공신경망 모델을 활용해 사람 뇌에서 특별한 학습 없이도 음악 본능이 나타날 수 있는 원리를 규명했다고 16일 밝혔다.

연구팀은 인공신경망을 사용해 음악에 대한 학습 없이도 자연에 대한 소리 정보 학습을 통해 음악 인지기능이 자발적으로 형성되는 것을 밝혀냈다.

연구팀은 구글에서 제공하는 대규모 소리 데이터를 활용해 인공신경망이 다양한 소리 데이터를 인식하도록 학습시켰다.

이를 통해 네트워크 모델 내에 음악에 선택적으로 반응하는 뉴런(신경계의 단위)이 발생하는 것을 발견했다.

즉 사람의 말, 동물 소리, 환경 소리, 기계 소리 등의 다양한 소리에는 거의 반응을 보이지 않으나 기악이나 성악 등 다양한 음악에 대해서는 높은 반응을 보이는 뉴런들이 자발적으로 형성된 것이다.

이 인공신경망 뉴런들은 실제 뇌의 음악정보처리 영역의 뉴런들과 유사한 반응 성질을 보였다. 자발적으로 나타난 음악 선택성 뉴런들이 음악의 시간적 구조를 부호화하고 있음을 의미한다.

이러한 성질은 특정 장르의 음악에만 국한된 것이 아닌 클래식, 팝, 락, 재즈, 전자음악 등 25개에 달하는 다양한 장르 각각에 대해서도 공통적으로 나타났다.

또 네트워크에서 음악 선택성 뉴런의 활동을 억제하게 되면 다른 자연 소리에 대한 인식 정확도를 크게 떨어뜨릴 수 있음을 보였다.

이는 음악 정보처리 기능이 다른 자연 소리 정보처리에 도움을 주고, 이에 따라 ‘음악성’이란 자연 소리를 처리하기 위한 진화적 적응에 의해 형성되는 본능일 수 있다는 것이다.

정하웅 KAIST 물리학과 교수

정하웅 교수는 “다양한 문화권에서 음악 정보처리의 공통된 기저를 형성하는데 자연 소리 정보처리를 위한 진화적 압력이 기여했을 수 있음을 시사한다”며 “사람과 유사한 음악성을 인공적으로 구현해 음악 생성 AI, 음악 치료, 음악 인지 연구 등에 원천 모델로 활용될 수 있을 것으로 기대한다”고 말했다.

그러면서도 “이번 연구는 음악 학습에 의한 발달 과정을 고려하고 있지 않으며, 발달 초기의 기초적인 음악 정보처리에 대한 논의임을 주의해야 한다”고 했다.

KAIST 물리학과 김광수 박사(제1 저자)와 김동겸 박사(현 IBS)가 참여한 이번 연구는 한국연구재단의 지원을 통해 수행됐다.

연구결과는 국제학술지 '네이처 커뮤니케이션스'에 게재됐다.

memory4444444@news1.kr