De Onzichtbare Energie-olifant: De Gevaren van AI als Stroomslurper in de Energiesector

De afgelopen jaren is kunstmatige intelligentie (AI) niet meer weg te denken uit het nieuws. AI wordt geprezen als dé motor achter innovatie, efficiëntie en zelfs verduurzaming. Maar er is een keerzijde die steeds groter wordt: AI als een enorme, groeiende verbruiker van elektriciteit. Waar de energiesector AI vaak ziet als een slimme motor, dreigt deze technologie juist een onzichtbare energie-olifant te worden die het net onder druk zet. Wat zijn de gevaren van deze ontwikkeling – nu én in de toekomst?

Van slimme assistent tot stroomvreter

AI-systemen, en vooral de nieuwste generatie generatieve AI zoals ChatGPT, draaien op gigantische datacenters vol krachtige chips. Elk verzoek aan zo’n systeem kost veel meer energie dan een gewone zoekopdracht. Zo verbruikt één ChatGPT-vraag bijna tien keer zoveel stroom als een Google-zoekopdracht. Het trainen van een groot AI-model als GPT-3 vraagt zelfs evenveel elektriciteit als wat 130 Amerikaanse huishoudens in een jaar gebruiken.

Explosieve groei: een toekomst vol piekbelasting

De cijfers zijn ronduit alarmerend. In 2022 verbruikten datacenters, AI en cryptovaluta samen al zo’n 460 terawattuur aan stroom – bijna 2% van het wereldwijde elektriciteitsverbruik. Maar dit is nog maar het begin. Volgens de International Energy Agency (IEA) zal het stroomverbruik van datacenters wereldwijd meer dan verdubbelen tot 945 terawattuur in 2030, een hoeveelheid die vergelijkbaar is met het totale elektriciteitsverbruik van Japan nu. AI is daarbij de grootste aanjager van deze groei: het aandeel van AI-werkzaamheden in datacenters stijgt razendsnel en de energiebehoefte van AI-toepassingen groeit exponentieel.

In de Verenigde Staten, waar de AI-boom het hardst gaat, zullen datacenters tegen 2030 meer stroom verbruiken dan de hele zware industrie bij elkaar. In sommige regio’s dreigt de vraag naar stroom zelfs zo hard te stijgen dat het bestaande elektriciteitsnet het niet meer aankan, met vertragingen in de energietransitie en zelfs het uitstellen van de sluiting van kolencentrales als gevolg.

Milieu-impact: meer dan alleen stroom

De groeiende honger naar elektriciteit is niet het enige probleem. AI-datacenters gebruiken ook enorme hoeveelheden water voor koeling, wat in sommige gebieden leidt tot waterschaarste. Daarnaast zorgen de productie en het afschrijven van gespecialiseerde hardware voor bergen elektronisch afval en een groeiende vraag naar zeldzame mineralen, vaak gewonnen onder milieubelastende omstandigheden.

En zolang een groot deel van de elektriciteit wereldwijd nog uit fossiele bronnen komt, leidt de groei van AI direct tot meer CO2-uitstoot. Grote techbedrijven als Google en Microsoft rapporteren nu al forse stijgingen in hun emissies, juist door de uitbreiding van AI-datacenters.

De paradox: AI als deel van de oplossing én het probleem

Het wrange is dat AI óók wordt ingezet om energie-efficiëntie te verbeteren, netten te optimaliseren en de energietransitie te versnellen. Maar als de groei van het stroomverbruik door AI sneller gaat dan de besparingen die AI oplevert, schiet de sector zichzelf in de voet. De uitdaging is om de balans te vinden tussen de voordelen van AI en de enorme energievraag die het met zich meebrengt.

Wat nu?

De energiesector staat voor een dilemma. Enerzijds biedt AI ongekende kansen voor optimalisatie en innovatie. Anderzijds dreigt het uit te groeien tot een van de grootste verbruikers van schaarse elektriciteit, met alle gevolgen van dien voor het klimaat en de leveringszekerheid. Er zijn dringend strengere eisen nodig aan de energie-efficiëntie van AI-toepassingen, transparantie over het werkelijke stroomverbruik en meer investeringen in duurzame energie om deze groei te kunnen opvangen.