"AI는 전기를 먹고 자란다"…전력조달·저전력 칩 찾는 글로벌 빅테크

IEA "AI 및 데이터센터 전력소비량 2026년 1000TWh로 급증"…日 한 해 소비량
빅테크들 태양광 투자 나서…반도체 업계, 서버용 저전력 메모리 추진

챗GPT의 개발사 오픈AI의 로고. 2024.01.08 ⓒ 로이터=뉴스1 ⓒ News1

(서울=뉴스1) 한재준 기자 = 인공지능(AI) 산업의 급격한 성장세로 전 세계적인 전력 수요가 증가할 것으로 예상된다. 글로벌 빅테크 기업이 대규모 데이터센터 설립에 나서면서다.

25일 국제에너지기구(IEA)가 발간한 전력 수요 전망 보고서에 따르면 전 세계 전력 수요는 올해부터 2026년까지 연평균 3.4% 증가할 것으로 예상된다. 지난 2022년(2.4%)과 2023년(2.2%)보다 높은 수치다.

전력 수요 증가의 주요 원인 중 하나는 AI 및 데이터센터 수요로, 해당 분야 전력 소비는 2026년까지 두 배로 늘어날 것으로 보인다.

AI와 데이터센터, 암호화폐 분야 전 세계 전력소비량은 2022년 기준 약 460테라와트시(TWh)였는데 2026년에는 1000TWh에 달할 것으로 예상된다. 일본의 한 해 전체 전력소비량과 맞먹는 수준이다.

지난해 11월16일(현지시간) 미국 캘리포니아주 샌프란시스코에서 열린 APEC 최고경영자(CEO) 서밋에 참석한 샘 올트먼 오픈 AI 전 최고경영자(CEO). 2023.11.16 ⓒ 로이터=뉴스1 ⓒ News1

◇엔비디아 칩만 7.3TWh…전력공급망 구축하는 빅테크들

IEA는 구글의 검색 엔진에 AI가 완전하게 구현될 경우 전력 수요가 10배 늘어날 것으로 분석했다. 구글 플랫폼을 통해 매일 90억건의 검색이 이뤄질 경우 1년에 구글 검색 엔진의 추가 전력 수요만 10TWh에 이른다는 것이다.

AI 가속기 시장을 사실상 독점하고 있는 엔비디아가 지난해 출하한 제품 10만 대의 연간 평균 전력 소비량은 7.3TWh로 추정된다.

AI 사업 확장을 위해 대규모 데이터센터를 짓고 있는 빅테크 기업이 전력 확보에 발벗고 나선 이유다. 특히 이들은 탄소중립에 대비해 친환경에너지 투자에 공을 들이고 있다.

'챗GPT' 개발사인 오픈AI 창업자 샘 올트먼은 최근 벤처캐피탈(VC)과 함께 태양광 스타트업 '엑소와트' 투자자에 이름을 올렸다. 투자 규모는 2000만 달러(약 275억 원)다. 해당 업체는 킬로와트시(kWh)당 1센트의 비용으로 전력을 공급하는 것을 목표로 하고 있다. 올트먼은 핵융합 스타트업인 헬리온과 소형모듈원전(SMR) 기업 오클로에도 투자한 상태다.

마이크로소프트(MS)는 한화솔루션(009830) 큐셀 부문(한화큐셀)과 손잡고 12기가와트(GW) 규모의 태양광 패널을 공급받기로 했다. 미국 내 태양광 파트너십 중 최대 규모다. 한화큐셀은 2032년까지 MS에 EPC(설계·조달·시공) 서비스도 제공한다.

한화큐셀은 다양한 빅테크 기업과도 태양광 패널 공급 논의를 진행 중인 것으로 알려졌다.

◇'더 빠르고 효율적으로'…반도체 업계 '칩' 개발도 속도

반도체 업계는 서버용 저전력 메모리 시장 확대 가능성에 주목하고 있다. 현재 저전력더블데이터레이트(LPDDR) D램은 주로 모바일 등 기기에 쓰이는데 데이터센터 전력 소비가 폭증하면 가격이 비싸더라도 LPDDR을 서버용으로 쓰는 수요가 생길 거란 전망이다.

삼성전자(005930)는 최근 업계 최고 동작속도인 10.7기가비피에스(Gbps, 초당 전송되는 기가비트 단위 데이터)를 구현한 LPDDR5X 개발을 완료하고 하반기부터 양산에 돌입한다.

해당 제품은 기존 제품 대비 소비전력이 약 25% 개선됐다. 삼성전자는 모바일 기기뿐만 아니라 서버까지 LPDDR5X 시장을 확대하는 방안을 추진 중이다.

SK하이닉스(000660)도 지난해 9.6Gbps LPDDRT를 선보이는 등 저전력 메모리 생산에 적극적으로 나서고 있다. 이와 함께 SK하이닉스는 5세대 고대역폭메모리(HBM)인 HBM3E'대비 전력 소모량을 70% 수준으로 떨어뜨린 6세대 HBM4 개발에 속도를 올리고 있다. SK하이닉스는 2030년까지 HBM 에너지 효율을 2배 높이겠다고 밝힌 바 있다.

삼성전자는 AI 추론칩인 '마하' 시리즈도 준비 중이다. 해당 칩은 HBM 대신 저전력 메모리를 사용해도 대규모언어모델(LLM) 추론이 가능하도록 설계됐다.

업계에서는 삼성전자의 마하 시리즈가 데이터센터 AI용 칩에 특화한 제품일 것으로 전망하고 있다.

hanantway@news1.kr