오픈AI, 인간에 가까운 추론 'o3' 공개…AGI 속도조절론 점화
'o3' ARC AGI 평가에서 87.5점 기록…인간의 최고점 85점 초과
"AGI 개발 속도 조절하자…통제 필요" 국제 사회 논의 활발
- 손엄지 기자
(서울=뉴스1) 손엄지 기자 = 오픈AI가 최근 발표한 최신 모델이 범용인공지능(AGI, Artificial General Intelligence)에 가깝다는 평가를 받고 있다.
AGI는 인간과 유사한 수준으로 사고하고 학습하는 인공지능(AI)을 의미한다. 궁극적으로 인간의 개입 없이도 스스로 사고할 수 있는 기술이다.
AGI가 가져올 잠재적 영향에 우려의 목소리도 높아지고 있다.
23일 정보기술(IT)업계에 따르면 오픈AI가 고급 추론 AI 모델 'o3'(오쓰리)를 공개했다. 내년 1월 말 'o3 미니'를 먼저 출시하고 곧이어 'o3'를 내놓을 예정이다.
오픈AI는 5일(현지시간)부터 20일까지 12일 동안 매일 새로운 기능, 제품, 데모를 공개하는 '12일간의 오픈AI'(12days of openAI)를 진행했다. 마지막 퍼즐이 o3다.
o3는 AI의 추론 능력을 향상하는 데 초점을 뒀다. 전작인 o1과 마찬가지로 이용자의 질문에 대답하기 전 AI가 먼저 스스로 생각하도록 훈련됐다. 이를 통해 복잡한 프로젝트를 스스로 계획하고, 인간의 개입 없이도 다음 단계로 나아가기 위한 해결책을 찾을 수 있다.
오픈AI는 o3가 AGI에 근접한 최초의 모델로 평가하고 있다. '아크 일반인공지능'(ARC AGI) 테스트에서 75.7점이라는 최고 기록을 달성했고, 추론 시간을 늘려 테스트했을 때 87.5점으로 증가해 인간이 받을 수 있는 최고 점수인 85점을 초과했다.
AGI는 엄청난 가능성을 지니고 있지만, 동시에 위험 요소도 상당하다. AGI가 가져올 자동화로 인한 대규모 실업 문제, 데이터 편향에 따른 윤리적 문제 등이 아직 해결되지 않았다.
특히 오픈AI와 같은 기업이 AGI를 독점하는 것도 경계해야 한다. 비영리 기업으로 출발했던 오픈AI는 최근 자금 조달 방식을 바꾸고 상업적 활동을 확대하면서 영리 기업적 행보를 강화하고 있다.
한 IT업계 관계자는 "AGI는 본질적으로 인류 전체에 영향을 미치는 기술이기 때문에 개발하는 과정에서 투명성과 공공성을 확보하는 것이 필수적"이라고 지적했다.
국제 사회는 AGI 개발의 속도를 조절하고 기술의 윤리적 사용을 보장하기 위한 규제 방안을 논의하고 있다. AI 거버넌스 개선을 위한 국제적 협력을 강조했다.
지난해 11월 영국 블레츨리 파크에서는 'AI 안정성 서밋'(AI Safety Summit)을 열고 AI의 위험 관리에 국제적인 협력을 강조하는 '블레츨리 선언'을 채택했다.
이어 올해 5월 서울에서는 블레츨리 선언의 후속 논의인 'AI 서울 서밋'(AI Seoul Summit)을 개최하고, '서울 선언'을 발표했다.
eom@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.