Сколько энергии потребляет ИИ? Знающие люди не говорят

«Людям часто интересно, сколько энергии потребляет запрос ChatGPT», — написал Сэм Альтман , генеральный директор OpenAI , в отступлении к длинному посту в блоге на прошлой неделе. Средний запрос, пишет Альтман, потребляет 0,34 ватт-часа энергии: «Примерно столько же, сколько духовка потребляет за секунду с небольшим, а высокоэффективная лампочка — за пару минут».
Для компании с 800 миллионами еженедельно активных пользователей (и растущей ) вопрос о том, сколько энергии потребляют все эти поиски, становится все более насущным. Но эксперты говорят, что цифра Альтмана не имеет большого смысла без гораздо большего публичного контекста от OpenAI о том, как она пришла к этому расчету, включая определение того, что такое «средний» запрос, включает ли он генерацию изображений и включает ли Альтман дополнительное потребление энергии, например, от обучения моделей ИИ и охлаждения серверов OpenAI.
В результате Саша Луччони, руководитель отдела климата в компании Hugging Face, занимающейся ИИ, не слишком доверяет цифре Альтмана. «Он мог бы вытащить это из своей задницы», — говорит она. (OpenAI не ответила на запрос о предоставлении дополнительной информации о том, как она пришла к этой цифре.)
Поскольку ИИ захватывает нашу жизнь, он также обещает преобразовать наши энергетические системы, увеличивая выбросы углерода прямо в то время, как мы пытаемся бороться с изменением климата. Теперь новый и растущий объем исследований пытается дать точные цифры того, сколько углерода мы на самом деле выбрасываем при всем нашем использовании ИИ.
Эти усилия осложняются тем фактом, что такие крупные игроки, как OpenAi, раскрывают мало экологической информации. Анализ, представленный на рецензирование на этой неделе Луччони и тремя другими авторами, рассматривает необходимость большей экологической прозрачности в моделях ИИ. В новом анализе Луччони она и ее коллеги используют данные OpenRouter , лидера трафика больших языковых моделей (LLM), чтобы обнаружить, что 84 процента использования LLM в мае 2025 года приходилось на модели с нулевым экологическим раскрытием. Это означает, что потребители в подавляющем большинстве выбирают модели с совершенно неизвестным воздействием на окружающую среду.
«У меня сносит крышу, что можно купить машину и знать, сколько миль на галлон она потребляет, а мы каждый день используем все эти инструменты ИИ, и у нас нет абсолютно никаких показателей эффективности, коэффициентов выбросов, ничего», — говорит Луччони. «Это не обязательно, это не регламентируется. Учитывая, где мы находимся с климатическим кризисом, это должно быть главным пунктом повестки дня для регулирующих органов по всему миру».
Луччони говорит, что из-за отсутствия прозрачности общественность получает оценки, которые не имеют смысла, но которые принимаются как истина. Вы, возможно, слышали, например, что средний запрос ChatGPT потребляет в 10 раз больше энергии, чем средний поиск Google. Луччони и ее коллеги отслеживают это утверждение до публичного замечания, которое Джон Хеннесси, председатель Alphabet, материнской компании Google, сделал в 2023 году.
Заявление члена совета директоров одной компании (Google) о продукте другой компании, к которой он не имеет никакого отношения (OpenAI), в лучшем случае неубедительно, однако анализ Луччони показывает, что эта цифра снова и снова повторялась в прессе и политических отчетах. (Когда я писал эту статью, мне предложили именно такую статистику.)
«Люди взяли импровизированное замечание и превратили его в реальную статистику, которая информирует политику и то, как люди смотрят на эти вещи», — говорит Луччони. «Настоящая основная проблема в том, что у нас нет цифр. Поэтому даже расчеты на салфетке, которые люди могут найти, они склонны принимать за золотой стандарт, но это не так».
Один из способов попытаться заглянуть за кулисы для получения более точной информации — это работа с моделями с открытым исходным кодом. Некоторые технологические гиганты, включая OpenAI и Anthropic, сохраняют свои модели в тайне, что означает, что внешние исследователи не могут независимо проверить их энергопотребление. Но другие компании делают некоторые части своих моделей общедоступными, что позволяет исследователям точнее оценивать свои выбросы.
Исследование, опубликованное в четверг в журнале Frontiers of Communication, оценило 14 больших языковых моделей с открытым исходным кодом, включая две модели Meta Llama и три модели DeepSeek, и обнаружило, что некоторые из них использовали на 50 процентов больше энергии, чем другие модели в наборе данных, отвечая на подсказки исследователей. 1000 контрольных подсказок, представленных LLM, включали вопросы по таким темам, как история средней школы и философия; половина вопросов была отформатирована как множественный выбор с доступными ответами только из одного слова, в то время как половина была представлена как открытые подсказки, что позволяло использовать более свободный формат и более длинные ответы. Исследователи обнаружили, что модели рассуждений генерируют гораздо больше токенов мышления — мер внутреннего рассуждения, генерируемых в модели при создании ее ответа, которые являются отличительной чертой большего потребления энергии, — чем более краткие модели. Эти модели, что, возможно, неудивительно, также были более точными со сложными темами. (У них также были проблемы с краткостью: например, на этапе множественного выбора более сложные модели часто возвращали ответы с несколькими токенами, несмотря на явные инструкции отвечать только из предложенного диапазона вариантов.)
Максимилиан Даунер, аспирант Мюнхенского университета прикладных наук и ведущий автор исследования, говорит, что он надеется, что использование ИИ будет развиваться, чтобы думать о том, как более эффективно использовать менее энергоемкие модели для различных запросов. Он представляет себе процесс, в котором более мелкие, простые вопросы автоматически направляются к менее энергоемким моделям, которые все равно будут давать точные ответы. «Даже более мелкие модели могут достигать действительно хороших результатов при решении более простых задач и не выделяют такого огромного количества CO2 в процессе», — говорит он.
Некоторые технологические компании уже это делают. Google и Microsoft ранее сообщили WIRED, что их функции поиска используют меньшие модели, когда это возможно, что также может означать более быстрые ответы для пользователей. Но в целом поставщики моделей мало что сделали, чтобы подтолкнуть пользователей к использованию меньшего количества энергии. Например, то, как быстро модель отвечает на вопрос, оказывает большое влияние на ее энергопотребление, но это не объясняется, когда продукты ИИ представляются пользователям, говорит Номан Башир, научный сотрудник Computing & Climate Impact в Консорциуме по климату и устойчивому развитию Массачусетского технологического института.
«Цель — предоставить все эти выводы максимально быстрым способом, чтобы вы не покидали их платформу», — говорит он. «Если ChatGPT внезапно начнет давать вам ответ через пять минут, вы перейдете к какому-то другому инструменту, который дает вам немедленный ответ».
Однако есть множество других соображений, которые следует учитывать при расчете энергопотребления сложных запросов ИИ, поскольку это не просто теория — условия, при которых запросы фактически выполняются в реальном мире, имеют значение. Башир отмечает, что физическое оборудование имеет значение при расчете выбросов. Даунер проводил свои эксперименты на графическом процессоре Nvidia A100, но графический процессор Nvidia H100, который был специально разработан для рабочих нагрузок ИИ и который, по словам компании , становится все более популярным, потребляет гораздо больше энергии.
Физическая инфраструктура также имеет значение, когда речь идет о выбросах. Крупным центрам обработки данных нужны системы охлаждения, освещение и сетевое оборудование, которые все добавляют больше энергии; они часто работают в дневных циклах, делая перерыв ночью, когда запросы ниже. Они также подключены к разным типам сетей — тем, которые в подавляющем большинстве работают на ископаемом топливе, по сравнению с теми, которые работают на возобновляемых источниках энергии — в зависимости от их местоположения.
Башир сравнивает исследования, в которых рассматриваются выбросы от запросов ИИ без учета потребностей центра обработки данных, с подъемом автомобиля, нажатием на газ и подсчетом оборотов колеса как способом проведения теста на топливную экономичность. «Вы не принимаете во внимание тот факт, что это колесо должно везти автомобиль и пассажира», — говорит он.
Возможно, наиболее важным для нашего понимания выбросов ИИ является то, что модели с открытым исходным кодом, подобные тем, которые Даунер использовал в своем исследовании, представляют собой лишь часть моделей ИИ, используемых потребителями сегодня. Обучение модели и обновление развернутых моделей требует огромного количества энергии — цифры, которые многие крупные компании держат в секрете. Неясно, например, учитывает ли статистика лампочки о ChatGPT от Альтмана из OpenAI всю энергию, используемую для обучения моделей, питающих чат-бота. Без большего раскрытия информации общественность просто упускает большую часть информации, необходимой для начала понимания того, насколько эта технология влияет на планету.
«Если бы у меня была волшебная палочка, я бы обязал любую компанию, внедряющую систему искусственного интеллекта в производство, где бы то ни было, по всему миру и в любом приложении, раскрывать показатели выбросов углерода», — говорит Луччони.
Пареш Дэйв внес свой вклад в подготовку репортажа.
wired