Amerikaanse technologiebedrijven investeren miljarden in kunstmatige intelligentie. Dit creëert een stroomprobleem


Meer en betere kunstmatige intelligentie (AI) – dat is het doel dat de grote technologiebedrijven in de VS nastreven. De afgelopen weken hebben Open AI, Amazon en Meta miljardeninvesteringen in AI aangekondigd. Zelfs Donald Trump sprak over het onderwerp op zijn tweede dag in functie. Een groot deel van dit geld gaat naar de infrastructuur die de ruggengraat van AI vormt: de datacenters.
NZZ.ch heeft JavaScript nodig voor belangrijke functies. Momenteel blokkeert uw browser of advertentieblokkering dit.
Pas de instellingen aan.
Er wordt 100 miljard dollar geïnvesteerd in het "Stargate"-project door Open AI en Microsoft, Alphabet wil dit jaar 75 miljard investeren in de ontwikkeling van AI, Amazon investeert 86 miljard in infrastructuur en Meta 65 miljard. Ook in Europa, en dan met name in Frankrijk, worden nieuwe datacenters gebouwd. De Franse president Emmanuel Macron kondigt tijdens een AI-top in Parijs investeringen van 109 miljard euro aan. De vraag naar energie zal toenemen naarmate de AI-infrastructuur zich uitbreidt, maar in welke mate is nog onduidelijk.
Er zijn veel meer datacenters in de VS dan in Europa. Daar worden AI-modellen 24 uur per dag getraind en aangestuurd door zeer gespecialiseerde chips. Deze datacenters verbruiken veel elektriciteit. In de staat Virginia zijn datacenters al verantwoordelijk voor een kwart van de totale vraag naar elektriciteit. Maar waar moet deze energie op een zo milieuvriendelijk en betrouwbaar mogelijke manier vandaan komen?
Kunstmatige intelligentie verhoogt de vraag naar energieAI verbruikt meerdere keren elektriciteit: vooral als het AI-model getraind wordt. En elke keer dat een gebruiker een verzoek aan het model doet. Afhankelijk van de vraag of er tekst, afbeeldingen of video's gemaakt moeten worden, verbruikt elke aanvraag aan een chatbot zoals Chat-GPT tien tot dertig keer zoveel energie als een online zoekopdracht via een zoekmachine.
De computerchips die nodig zijn om AI te trainen en te gebruiken, verbruiken bovendien meer energie dan traditionele chips die bijvoorbeeld nodig zijn voor cloudtoepassingen. Om een AI-model te trainen of een query te verwerken, moet een chip allereerst rekenen en niet alleen informatie opslaan. Hierdoor ontstaat er ook extra warmte. Daarom moeten de datacenters speciaal gekoeld worden. Vooral in warme gebieden zoals Texas of Arizona is hiervoor veel extra elektriciteit nodig.
Dit komt ook tot uiting in de prognoses voor het toekomstige energieverbruik van datacenters. Volgens een onderzoek van adviesbureau McKinsey zal dit in de VS tegen 2030 80 gigawatt bedragen. Vorig jaar was dit 25 gigawatt. Ook de Boston Consulting Group (BCG) verwacht dat de vraag naar energie zal verdrievoudigen. Volgens BCG wordt er in de berekening rekening gehouden met het feit dat AI steeds efficiënter wordt. Datacenters worden niet alleen in de VS gebouwd; landen en bedrijven over de hele wereld investeren in de uitbreiding ervan. Adviesbureau Bain schrijft dat het energieverbruik in datacenters wereldwijd met 72 procent is gestegen van 2019 tot 2023 en naar verwachting tegen 2027 opnieuw zal verdubbelen.
Tegenwoordig zijn datacenters verantwoordelijk voor één procent van het wereldwijde energieverbruik. Als de schattingen kloppen, zullen datacenters in 2027 verantwoordelijk zijn voor maar liefst 2,6 procent van de wereldwijde vraag naar energie. Dat is misschien nog steeds een klein percentage, maar de snelle toename onderstreept de noodzaak van betrouwbare energiebronnen.
Eigenlijk zijn chips de laatste jaren steeds efficiënter geworden. Maar vooral bij AI-chips is er een trend naar meer stroomverbruik. De nieuwste Blackwell-chip van Nvidia heeft 15 kilowatt aan energie nodig. Als je een heel datacentrum met zulke chips zou vullen, zou het gemakkelijk evenveel energie verbruiken als een middelgrote stad. Babak Falsafi is hoogleraar aan de EPFL en doet onderzoek naar de efficiëntie van datacenters. Hij zegt: “Bij chips die speciaal voor AI zijn ontwikkeld, verdubbelt het energieverbruik bij elke nieuwe generatie.”
Een jaar geleden waarschuwde Sam Altman, CEO van Open AI, dat een energietekort de ontwikkeling van AI in gevaar zou brengen.
Betere chips kunnen AI efficiënter makenHet succes van de AI van de Chinese startup Deepseek deed twijfels rijzen over de aanname dat AI werkelijk steeds meer rekenkracht nodig heeft. Volgens het bedrijf heeft Deepseek zijn chatbot getraind met minder en minder krachtige chips en toch vergelijkbare prestaties behaald als het topmodel van Open AI. In een onderzoekspaper legt Deepseek uit welke technieken ze hebben gebruikt om efficiëntere AI te realiseren. Andere AI-ontwikkelaars kunnen deze innovaties toepassen op hun eigen modellen.
Als rekenkracht bespaard kan worden, verbruiken datacenters ook minder elektriciteit. Babak Falsafi zegt ook: “Verbeteringen aan de algoritmes zouden ze efficiënter kunnen maken en zo energie kunnen besparen.”
Eigenlijk zorgen algoritmes die AI efficiënter trainen er niet per se voor dat er minder energie nodig is voor AI-toepassingen. Ze maken AI goedkoper en daardoor aantrekkelijker voor gebruikers. Naarmate meer mensen en bedrijven AI gebruiken, zal het elektriciteitsverbruik weer stijgen. De kosten en energiebehoefte verschuiven dan alleen van de training naar de toepassing.
De technologiebedrijven investeren in nieuwe energietechnologieDaarom vertrouwt Microsoft op kernenergie en financiert het de herstart van de kerncentrale Three Mile Island, die in 2019 werd gesloten. De elektriciteitscentrale was niet langer rendabel. Amazon en Google kondigden in het najaar grote investeringen aan in zogenaamde “Small Modular Reactors”. Deze kleine, modulaire kerncentrales genereren maximaal 300 megawatt aan stroom en kunnen rechtstreeks elektriciteit leveren aan datacentra. Geen van deze mini-kerncentrales is al aangesloten op het elektriciteitsnet in de VS of zelfs maar in de buurt van operationeel zijn.
Sam Altman zelf vertrouwt op startups als Oklo, dat kleine kernreactoren ontwikkelt die draaien op kernafval als brandstof. Hij investeert ook in Helion, een bedrijf dat gespecialiseerd is in kernfusie. Altman investeert honderden miljoenen dollars in energieweddenschappen in de hoop op een doorbraak.
Maar deze doorbraak is nog ver weg. Het kan jaren of zelfs decennia duren voordat nieuwe vormen van energieproductie voldoende elektriciteit leveren. Tot die tijd zullen datacenters vaak draaien op energie uit fossiele brandstoffen. Omdat de AI-hype tegenwoordig enorm veel elektriciteit verbruikt.
nzz.ch