ИИ поглощает электроэнергию центров обработки данных — и ситуация становится только хуже

Потребление энергии ИИ уже составляет около 20 процентов от мирового спроса на электроэнергию в центрах обработки данных, как показывает исследование, опубликованное в четверг в журнале Joule. Этот спрос со стороны ИИ , как утверждается в исследовании, может удвоиться к концу этого года, составляя почти половину всего потребления электроэнергии в центрах обработки данных во всем мире, за исключением электроэнергии, используемой для майнинга биткоинов .
Новое исследование опубликовано в комментарии Алекса де Врис-Гао, основателя Digiconomist, исследовательской компании, которая оценивает воздействие технологий на окружающую среду. Де Врис-Гао основал Digiconomist в конце 2010-х годов, чтобы исследовать влияние майнинга биткоинов, еще одной чрезвычайно энергоемкой деятельности, на окружающую среду. По его словам, изучение ИИ стало более актуальным за последние несколько лет из-за широкого внедрения ChatGPT и других крупных языковых моделей, которые потребляют огромное количество энергии. Согласно его исследованию, мировой спрос на энергию ИИ теперь должен превзойти спрос на майнинг биткоинов к концу этого года.
«Деньги, которые потребовались майнерам биткоинов, чтобы достичь сегодняшнего положения, — мелочь по сравнению с деньгами, которые Google , Microsoft и все эти крупные технологические компании вливают [в ИИ]», — говорит он. «Это просто развивается гораздо быстрее, и это гораздо большая угроза».
Развитие ИИ уже оказывает влияние на климатические цели Big Tech. Технологические гиганты признали в недавних отчетах об устойчивом развитии , что ИИ в значительной степени ответственен за рост их энергопотребления. Например, выбросы парниковых газов Google увеличились на 48 процентов с 2019 года, что усложняет достижение компанией цели достичь чистого нуля к 2030 году.
«По мере дальнейшей интеграции ИИ в наши продукты сокращение выбросов может оказаться сложной задачей из-за растущего спроса на энергию из-за возросшей интенсивности вычислений ИИ», — говорится в отчете Google об устойчивом развитии за 2024 год.
В прошлом месяце Международное энергетическое агентство опубликовало отчет , в котором говорится, что в 2024 году на центры обработки данных пришлось 1,5 процента мирового потребления энергии — около 415 тераватт-часов, что немного меньше годового спроса на энергию Саудовской Аравии. Это число будет только расти: потребление электроэнергии центрами обработки данных в последние годы росло в четыре раза быстрее, чем общее потребление, в то время как объем инвестиций в центры обработки данных почти удвоился с 2022 года, в основном за счет масштабных расширений для учета новых мощностей ИИ. В целом МЭА прогнозирует, что потребление электроэнергии центрами обработки данных вырастет до более чем 900 ТВт-ч к концу десятилетия.
Но все еще много неизвестного о доле, которую ИИ, в частности, занимает в этой текущей конфигурации потребления электроэнергии центрами обработки данных. Центры обработки данных обеспечивают работу различных сервисов, таких как хостинг облачных сервисов и предоставление онлайн-инфраструктуры, которые не обязательно связаны с энергоемкой деятельностью ИИ. Между тем, технологические компании в основном держат в тайне расходы энергии на свое программное обеспечение и оборудование.
Некоторые попытки количественно оценить потребление энергии ИИ начались со стороны пользователя: например, расчет количества электроэнергии, которое уходит на один поиск ChatGPT. Де Врис-Гао решил вместо этого рассмотреть цепочку поставок, начав со стороны производства, чтобы получить более глобальную картину.
По словам Де Врис-Гао, высокие вычислительные требования ИИ создают естественное «узкое место» в текущей глобальной цепочке поставок вокруг оборудования ИИ, особенно вокруг Taiwan Semiconductor Manufacturing Company (TSMC), бесспорного лидера в производстве ключевого оборудования, способного удовлетворить эти потребности. Такие компании, как Nvidia, передают производство своих чипов на аутсорсинг TSMC, которая также производит чипы для других компаний, таких как Google и AMD. (TSMC и Nvidia отказались комментировать эту статью.)
Де Врис-Гао использовал оценки аналитиков, стенограммы конференций по вопросам доходов и сведения об устройствах, чтобы составить приблизительную оценку производственных мощностей TSMC. Затем он изучил общедоступные профили потребления электроэнергии оборудованием ИИ и оценки коэффициентов использования этого оборудования (которые могут варьироваться в зависимости от того, для чего оно используется), чтобы получить приблизительную цифру того, какую часть мирового спроса на центры обработки данных занимает ИИ. Де Врис-Гао подсчитал, что без увеличения производства ИИ будет потреблять до 82 тераватт-часов электроэнергии в этом году — примерно столько же, сколько ежегодно потребляет такая страна, как Швейцария. Если производственные мощности для оборудования ИИ удвоятся в этом году, как прогнозируют аналитики, спрос может увеличиться аналогичными темпами, составив почти половину всего спроса на центры обработки данных к концу года.
Несмотря на объем общедоступной информации, использованной в статье, многое из того, что делает Де Вриз-Гао, представляет собой заглядывание в черный ящик: мы просто не знаем определенных факторов, которые влияют на энергопотребление ИИ, например, коэффициенты использования каждого компонента оборудования ИИ в мире или то, для каких задач машинного обучения они используются, не говоря уже о том, как эта отрасль может развиваться в будущем.
Саша Луччони, исследователь ИИ и энергетики и руководитель по климату на платформе машинного обучения с открытым исходным кодом Hugging Face, предостерегает от чрезмерного доверия к некоторым выводам новой статьи, учитывая количество неизвестных. Луччони, который не принимал участия в этом исследовании, говорит , что когда дело доходит до настоящего расчета энергопотребления ИИ, раскрытие информации от технологических гигантов имеет решающее значение.
«Это потому, что у нас нет информации, которая нужна [исследователям], чтобы это сделать», — говорит она. «Вот почему погрешность так велика».
И технологические компании действительно хранят эту информацию. В 2022 году Google опубликовала статью о машинном обучении и использовании электроэнергии, отметив , что машинное обучение составило «10–15% от общего потребления энергии Google» с 2019 по 2021 год, и предсказала, что при использовании лучших практик «к 2030 году общие выбросы углерода от обучения сократятся». Однако с момента публикации этой статьи, которая была выпущена до дебюта Google Gemini в 2023 году, Google не предоставила более подробной информации о том, сколько электроэнергии потребляет ML. (Google отказалась комментировать эту историю.)
«Вам действительно нужно глубоко погрузиться в цепочку поставок полупроводников, чтобы иметь возможность сделать какое-либо разумное заявление об энергопотреблении ИИ», — говорит Де Врис-Гао. «Если бы эти крупные технологические компании просто публиковали ту же информацию, которую Google публиковал три года назад, у нас был бы довольно хороший индикатор» энергопотребления ИИ.
wired