본문 바로가기
자유게시판

AI 수요가 급증함에 따라 전력망이 삐걱거립니다.

by godfeeling 2024. 5. 22.

데이터센터 전력 수요는 2022년에서 2026년 사이에 두 배로 증가할 것으로 예상됩니다.

기계 학습 회사인 Hugging Face의 Sasha Luccioni는 생성 AI에는 큰 문제가 있다고 말합니다. 생성 AI는 에너지 돼지입니다.

"모델을 쿼리할 때마다 모든 것이 활성화되므로 계산 관점에서 보면 매우 비효율적입니다."라고 그녀는 말합니다.

많은 Generative AI 시스템의 핵심인 LLM(대형 언어 모델)을 활용해 보세요. 그들은 방대한 양의 서면 정보에 대해 훈련을 받았으며, 이는 거의 모든 질문에 대한 응답으로 텍스트를 대량으로 생성하는 데 도움이 됩니다.

Luccioni 박사는 “제너레이티브 AI를 사용하면… 처음부터 콘텐츠를 생성하고 본질적으로 답변을 구성하는 것입니다.”라고 설명합니다. 이는 컴퓨터가 꽤 열심히 일해야 함을 의미합니다.

Luccioni 박사와 동료들의 최근 연구에 따르면 Generative AI 시스템은 작업별 소프트웨어를 실행하는 기계보다 약 33배 더 많은 에너지를 사용할 수 있습니다. 이 연구는 동료 심사를 받았지만 아직 저널에 게재되지 않았습니다.

하지만 이 모든 에너지를 사용하는 것은 개인용 컴퓨터가 아닙니다. 아니면 스마트폰. 우리가 점점 더 의존하는 계산은 대부분의 사람들에게 눈에 띄지 않고 마음에도 없는 거대한 데이터 센터에서 발생합니다.

Luccioni 박사는 “클라우드”라고 말합니다. "당신은 가열되고 많은 에너지를 사용하는 거대한 금속 상자에 대해 생각하지 않습니다."

세계의 데이터 센터는 점점 더 많은 전력을 사용하고 있습니다 . 2022년에 그들은 460테라와트시의 전력을 소비했으며, 국제에너지기구(IEA)는 이 전력이 단 4년 안에 두 배로 늘어날 것으로 예상하고 있습니다. 데이터 센터는 2026년까지 연간 총 1,000테라와트 시간을 사용할 수 있습니다. IEA는 "이 수요는 일본의 전력 소비량과 거의 동일합니다"라고 말합니다. 일본의 인구는 1억 2500만 명입니다.

데이터 센터에는 이메일부터 헐리우드 영화에 이르기까지 전 세계 어디에서나 검색할 수 있도록 엄청난 양의 정보가 저장되어 있습니다. 얼굴 없는 건물에 있는 컴퓨터는 AI와 암호화폐에도 힘을 실어줍니다. 그것들은 우리가 알고 있는 삶을 뒷받침합니다.

AI는 컴퓨팅 리소스를 사용할 때 "매우 비효율적"일 수 있다고 Sasha Luccioni는 말합니다.

그러나 일부 국가에서는 이러한 시설이 얼마나 에너지를 소모하는지 잘 알고 있습니다. 현재 더블린에는 새로운 데이터 센터 건설을 금지하는 유예 조치가 시행되고 있습니다. 아일랜드 전력의 거의 5분의 1이 데이터 센터에서 사용되며 이 수치는 향후 몇 년 동안 크게 증가할 것으로 예상됩니다. 한편 아일랜드 가구는 전력 소비를 줄이고 있습니다 .

내셔널 그리드(National Grid)의 사장은 지난 3월 연설에서 AI의 부상으로 인해 영국의 데이터 센터 전력 수요가 단 10년 안에 6배 증가할 것이라고 말했습니다. 그러나 내셔널 그리드(National Grid)는 운송과 열의 전기화에 필요한 에너지가 전체적으로 훨씬 더 커질 것으로 예상하고 있습니다.

컨설팅 회사인 Wood Mackenzie의 Chris Seiple은 미국의 유틸리티 회사들이 압박감을 느끼기 시작했다고 말했습니다.

“정부 정책 덕분에 국내 제조 분야에서 르네상스가 일어나고 있는 것과 정확히 동시에 데이터 센터 수요에 직면하고 있습니다.”라고 그는 설명합니다. 미국 보고서에 따르면 일부 주의 국회의원들은 데이터센터 개발자에게 제공되는 세금 감면 혜택을 재검토하고 있습니다. 이러한 시설이 지역 에너지 인프라에 가하는 엄청난 부담 때문입니다 .

Seiple 씨는 발전소나 재생 가능 에너지 허브 근처의 데이터 센터 위치에 대한 "토지 확보"가 진행되고 있다고 말했습니다. "아이오와는 데이터 센터 개발의 온상이며 거기에는 풍력 발전이 많이 있습니다."

요즘 일부 데이터 센터는 더 많은 원격 위치로 이동할 여유가 있습니다. 왜냐하면 데이터 센터에서 정보를 보내는 것과 사용자가 정보를 받는 사이의 지연 시간(보통 밀리초 단위로 측정됨)은 점점 인기를 얻고 있는 제너레이티브 AI 시스템의 주요 관심사가 아니기 때문입니다. 과거에는 응급 통신이나 금융 거래 알고리즘 등을 처리하는 데이터 센터가 최적의 응답 시간을 위해 대규모 인구 센터 내부 또는 매우 가까운 곳에 위치했습니다.

Nvidia CEO Jensen Huang은 3월에 새로운 Blackwell 칩을 선보였습니다.

앞으로 데이터 센터의 에너지 수요가 증가할 것이라는 점에는 의심의 여지가 없지만 그 양에 대해서는 불확실성이 크다고 Seiple 씨는 강조합니다.

이러한 불확실성의 일부는 생성 AI의 하드웨어가 항상 진화하고 있다는 사실에 있습니다.

Tony Grayson은 데이터 센터 기업인 Compass Quantum의 총책임자이며 Nvidia가 최근 출시한 Grace Blackwell 슈퍼컴퓨터 칩(컴퓨터 과학자와 수학자 이름을 따서 명명)을 지적합니다. 이 칩은 생성 AI를 포함한 고급 프로세스를 지원하기 위해 특별히 설계되었습니다. , 양자 컴퓨팅 및 컴퓨터 지원 약물 설계.

Nvidia는 미래에는 이전 세대의 Nvidia 칩 8,000개를 사용하여 현재 사용 가능한 가장 큰 AI 시스템보다 몇 배 더 큰 AI를 90일 안에 훈련시킬 수 있다고 말합니다. 이를 위해서는 15메가와트의 전력 공급이 필요합니다.

그러나 Nvidia에 따르면 Grace Blackwell 칩 2,000개만으로 동일한 작업을 동시에 수행할 수 있으며 4MW의 공급이 필요하다고 합니다.

이는 여전히 8.6기가와트시의 전력 소비로 끝납니다. 이는 벨파스트 시 전체가 일주일 동안 사용하는 것과 거의 같은 양입니다.

"성능이 크게 향상되어 전반적인 에너지 절감 효과가 커졌습니다."라고 Grayson 씨는 말합니다. 그러나 그는 데이터 센터 운영자가 시설을 배치하는 곳에서 전력 수요가 형성되고 있다는 데 동의합니다. "사람들은 값싼 전력이 있는 곳으로 가고 있습니다."

Luccioni 박사는 최신 컴퓨터 칩을 제조하는 데 필요한 에너지와 자원이 상당하다고 지적합니다.

그럼에도 불구하고 미국 로렌스 버클리 국립연구소(Lawrence Berkeley National Laboratory)의 컨설턴트이자 제휴사인 데일 사터(Dale Sartor)는 데이터 센터가 시간이 지남에 따라 에너지 효율성이 더 높아진 것은 사실이라고 주장합니다. 효율성은 전력 사용 효율성(PUE)으로 측정되는 경우가 많습니다. 숫자가 낮을수록 좋습니다. 최첨단 데이터 센터의 PUE는 약 1.1이라고 그는 지적합니다.

이러한 시설에서는 여전히 상당한 양의 폐열이 발생하며 유럽은 수영장 예열 과 같은 폐열 사용 방법을 찾는 데 미국보다 앞서 있다고 Sartor는 말합니다.

데이터 센터 회사인 Equinix의 영국 전무이사인 Bruce Owen은 "아직도 우리가 보고 있는 효율성 향상보다 수요가 더 커질 것이라고 생각합니다."라고 말합니다. 그는 현장 발전 시설을 포함하여 더 많은 데이터 센터가 건설될 것이라고 예측합니다. Equinix는 작년에 더블린의 가스 구동 데이터 센터에 대한 계획 허가를 거부당했습니다 .

Sartor 씨는 궁극적으로 비용이 특정 애플리케이션에 대해 Generative AI가 가치가 있는지 여부를 결정할 수 있다고 덧붙입니다. "기존 방식이 더 저렴하고 쉽다면 새로운 방식을 위한 시장이 많지 않을 것입니다."

그러나 Luccioni 박사는 사람들이 에너지 효율성 측면에서 자신 앞에 놓인 옵션이 어떻게 다른지 명확하게 이해해야 한다고 강조합니다. 그녀는 AI의 에너지 등급을 개발하는 프로젝트를 진행하고 있습니다.

"매우 투박하고 많은 에너지를 사용하는 GPT 파생 모델을 선택하는 대신 훨씬 더 가볍고 효율적인 이 A+ 에너지 스타 모델을 선택할 수 있습니다."라고 그녀는 말합니다.

댓글