Sprache auswählen

German

Down Icon

Land auswählen

Spain

Down Icon

Wie viel Energie verbraucht KI? Diejenigen, die es wissen, sagen es nicht

Wie viel Energie verbraucht KI? Diejenigen, die es wissen, sagen es nicht
Immer mehr Forschungsarbeiten versuchen, den Energieverbrauch und die KI zu beziffern – obwohl die Unternehmen hinter den beliebtesten Modellen ihre CO2-Emissionen geheim halten.
Foto: Bloomberg/Getty Images

„Die Leute sind oft neugierig, wie viel Energie eine ChatGPT-Abfrage verbraucht“, schrieb Sam Altman , CEO von OpenAI , letzte Woche in einem langen Blogbeitrag . Eine durchschnittliche Abfrage verbraucht laut Altman 0,34 Wattstunden Energie: „Ungefähr so ​​viel, wie ein Backofen in etwas mehr als einer Sekunde oder eine Hochleistungsglühbirne in ein paar Minuten verbraucht.“

Für ein Unternehmen mit 800 Millionen aktiven Nutzern pro Woche (Tendenz steigend ) wird die Frage nach dem Energieverbrauch all dieser Suchanfragen immer dringlicher. Experten sagen jedoch, dass Altmans Zahl ohne umfassendere öffentliche Erläuterungen von OpenAI zur Berechnung wenig aussagekräftig ist – einschließlich der Definition einer „durchschnittlichen“ Abfrage, ob sie die Bildgenerierung beinhaltet und ob Altman zusätzlichen Energieverbrauch, beispielsweise für das Training von KI-Modellen und die Kühlung der OpenAI-Server, berücksichtigt.

Sasha Luccioni, Klimaexpertin beim KI-Unternehmen Hugging Face, hält daher nicht viel von Altmans Zahl. „Das hätte er sich ausdenken können“, sagt sie. (OpenAI antwortete nicht auf eine Anfrage nach weiteren Informationen zur Schlussfolgerung dieser Zahl.)

Da KI unser Leben bestimmt, verspricht sie auch eine Transformation unserer Energiesysteme und einen Anstieg der CO2-Emissionen – genau in dem Moment, in dem wir den Klimawandel bekämpfen. Neue und wachsende Forschungsarbeiten versuchen nun, konkrete Zahlen darüber zu ermitteln, wie viel CO2 wir durch den Einsatz von KI tatsächlich ausstoßen.

Dieses Vorhaben wird dadurch erschwert, dass große Akteure wie OpenAi nur wenige Umweltinformationen offenlegen. Eine Analyse, die diese Woche von Luccioni und drei weiteren Autoren zur Begutachtung eingereicht wurde, untersucht die Notwendigkeit von mehr Umwelttransparenz in KI-Modellen. In ihrer neuen Analyse nutzen Luccioni und ihre Kollegen Daten von OpenRouter , einer Rangliste des Datenverkehrs großer Sprachmodelle (LLM), und stellen fest, dass 84 Prozent der LLM-Nutzung im Mai 2025 auf Modelle ohne jegliche Umweltinformationen entfielen. Das bedeutet, dass Verbraucher überwiegend Modelle mit völlig unbekannten Umweltauswirkungen wählen.

„Es ist unglaublich, dass man ein Auto kaufen und seinen Benzinverbrauch pro 100 Kilometer kennen kann, während wir täglich all diese KI-Tools nutzen und keinerlei Effizienzkennzahlen, Emissionsfaktoren oder gar nichts haben“, sagt Luccioni. „Es ist weder vorgeschrieben noch reglementiert. Angesichts der aktuellen Klimakrise sollte es für Regulierungsbehörden überall ganz oben auf der Agenda stehen.“

Aufgrund dieses Mangels an Transparenz, so Luccioni, werde die Öffentlichkeit mit Schätzungen konfrontiert, die zwar keinen Sinn ergeben, aber als bare Münze genommen werden. Sie haben vielleicht schon gehört, dass beispielsweise eine durchschnittliche ChatGPT-Anfrage zehnmal so viel Energie verbraucht wie eine durchschnittliche Google-Suche. Luccioni und ihre Kollegen führen diese Behauptung auf eine öffentliche Äußerung von John Hennessy, dem Vorsitzenden von Alphabet, der Muttergesellschaft von Google, aus dem Jahr 2023 zurück.

Die Behauptung eines Vorstandsmitglieds eines Unternehmens (Google) über das Produkt eines anderen Unternehmens, mit dem er nichts zu tun hat (OpenAI), ist bestenfalls fragwürdig – doch Luccionis Analyse zeigt, dass diese Zahl in Presseberichten und politischen Berichten immer wieder auftaucht. (Während ich diesen Artikel schrieb, erhielt ich einen Pitch mit genau dieser Statistik.)

„Man hat eine spontane Bemerkung zu einer echten Statistik gemacht, die die Politik beeinflusst und die Sichtweise der Bevölkerung auf diese Dinge beeinflusst“, sagt Luccioni. „Das eigentliche Kernproblem ist, dass wir keine Zahlen haben. Selbst die überschlagsmäßigen Berechnungen, die man findet, werden oft als Maßstab genommen, aber das stimmt nicht.“

Eine Möglichkeit, einen Blick hinter die Kulissen zu werfen und genauere Informationen zu erhalten, ist die Arbeit mit Open-Source-Modellen. Einige Technologieriesen, darunter OpenAI und Anthropic, halten ihre Modelle geheim – das heißt, externe Forscher können ihren Energieverbrauch nicht unabhängig überprüfen. Andere Unternehmen stellen jedoch Teile ihrer Modelle öffentlich zur Verfügung, sodass Forscher ihre Emissionen genauer messen können.

Eine am Donnerstag in der Fachzeitschrift Frontiers of Communication veröffentlichte Studie untersuchte 14 Open-Source-Modelle für große Sprachen, darunter zwei Meta-Llama-Modelle und drei DeepSeek-Modelle. Sie stellte fest, dass einige Modelle bis zu 50 Prozent mehr Energie verbrauchten als andere Modelle im Datensatz, die auf die Fragen der Forscher reagierten. Die 1.000 den LLMs vorgelegten Benchmark-Fragen umfassten Fragen zu Themen wie Geschichte und Philosophie an der High School. Die Hälfte der Fragen war als Multiple-Choice-Fragen mit nur einsilbigen Antworten formatiert, die andere Hälfte als offene Fragen, die ein freieres Format und längere Antworten ermöglichten. Die Forscher fanden heraus, dass Denkmodelle deutlich mehr Denktoken generierten – Maße für das interne Denken, das im Modell während der Antwortgenerierung generiert wird und ein Kennzeichen für einen höheren Energieverbrauch ist – als prägnantere Modelle. Wenig überraschend waren diese Modelle auch bei komplexen Themen präziser. (Sie hatten auch Probleme mit der Kürze: Während der Multiple-Choice-Phase gaben die komplexeren Modelle beispielsweise oft Antworten mit mehreren Token zurück, trotz expliziter Anweisung, nur aus den angebotenen Optionen zu antworten.)

Maximilian Dauner, Doktorand an der Hochschule München und Hauptautor der Studie, hofft, dass sich der Einsatz von KI weiterentwickelt, um die effizientere Nutzung weniger energieintensiver Modelle für verschiedene Abfragen zu ermöglichen. Er stellt sich einen Prozess vor, bei dem kleinere, einfachere Fragen automatisch an weniger energieintensive Modelle weitergeleitet werden, die dennoch präzise Antworten liefern. „Selbst kleinere Modelle können bei einfacheren Aufgaben sehr gute Ergebnisse erzielen und verursachen dabei weniger CO2- Ausstoß“, sagt er.

Einige Technologieunternehmen tun dies bereits. Google und Microsoft erklärten gegenüber WIRED, dass ihre Suchfunktionen nach Möglichkeit kleinere Modelle verwenden, was auch schnellere Antworten für die Nutzer bedeuten kann. Generell haben die Modellanbieter jedoch wenig unternommen, um die Nutzer zu einem geringeren Energieverbrauch zu bewegen. Wie schnell ein Modell beispielsweise eine Frage beantwortet, hat großen Einfluss auf seinen Energieverbrauch – dies wird jedoch nicht erklärt, wenn KI-Produkte den Nutzern präsentiert werden, sagt Noman Bashir, Computing & Climate Impact Fellow am Climate and Sustainability Consortium des MIT.

„Ziel ist es, all diese Schlussfolgerungen so schnell wie möglich bereitzustellen, damit Sie die Plattform nicht verlassen“, sagt er. „Wenn ChatGPT Ihnen nach fünf Minuten plötzlich eine Antwort gibt, wechseln Sie zu einem anderen Tool, das Ihnen sofort eine Antwort liefert.“

Bei der Berechnung des Energieverbrauchs komplexer KI-Abfragen sind jedoch zahlreiche weitere Aspekte zu berücksichtigen, da es sich nicht nur um theoretische Berechnungen handelt – entscheidend sind auch die Bedingungen, unter denen Abfragen in der Praxis ausgeführt werden. Bashir weist darauf hin, dass die physische Hardware bei der Berechnung der Emissionen einen Unterschied macht. Dauner führte seine Experimente mit einer Nvidia A100 GPU durch, doch die H100 GPU von Nvidia – die speziell für KI-Workloads entwickelt wurde und laut dem Unternehmen immer beliebter wird – ist deutlich energieintensiver.

Auch die physische Infrastruktur spielt eine Rolle, wenn es um Emissionen geht. Große Rechenzentren benötigen Kühlsysteme, Beleuchtung und Netzwerkausrüstung, die alle einen höheren Energieverbrauch verursachen. Sie laufen oft im Tagesrhythmus und legen nachts, wenn weniger Anfragen eingehen, eine Pause ein. Je nach Standort sind sie zudem an unterschiedliche Netze angeschlossen – solche, die überwiegend mit fossilen Brennstoffen betrieben werden, oder solche, die mit erneuerbaren Energien betrieben werden.

Bashir vergleicht Studien, die die Emissionen von KI-Abfragen untersuchen, ohne den Bedarf von Rechenzentren zu berücksichtigen, mit dem Anheben eines Autos, dem Betätigen des Gaspedals und dem Zählen der Radumdrehungen, um einen Kraftstoffverbrauchstest durchzuführen. „Sie berücksichtigen nicht, dass dieses Rad das Auto und den Passagier tragen muss“, sagt er.

Für unser Verständnis der Emissionen von KI ist es vielleicht entscheidend, dass Open-Source-Modelle wie die von Dauner in seiner Studie verwendeten nur einen Bruchteil der heute von Verbrauchern genutzten KI-Modelle darstellen. Das Trainieren eines Modells und die Aktualisierung eingesetzter Modelle erfordern enorme Energiemengen – Zahlen, die viele große Unternehmen geheim halten. So ist beispielsweise unklar, ob die Glühbirnen-Statistik zu ChatGPT von Altman von OpenAI den gesamten Energieverbrauch für das Trainieren der Chatbot-Modelle berücksichtigt. Ohne weitere Offenlegung fehlen der Öffentlichkeit schlicht viele der Informationen, die sie braucht, um zu verstehen, wie stark diese Technologie den Planeten beeinflusst.

„Wenn ich einen Zauberstab hätte, würde ich jedem Unternehmen, das ein KI-System in Produktion bringt, egal wo auf der Welt und in welcher Anwendung, die Offenlegung seiner CO2-Emissionen zur Pflicht machen“, sagt Luccioni.

Paresh Dave hat zur Berichterstattung beigetragen.

wired

wired

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow