We staan aan de vooravond van een nieuwe revolutie in de digitale wereld: de exponentiële groei van AI en de bijbehorende druk op de wereldwijde datacenters. Waar we tot voor kort nog bezorgd waren over de energiebehoefte van traditionele servers, staan we nu voor een grotere uitdaging: de energiehonger van AI-modellen. De hoeveelheid energie die datacenters wereldwijd verbruiken, neemt in razendsnel tempo toe – gedreven door AI.
In 2024 verbruikten datacenters wereldwijd circa 415 TWh (terawattuur), goed voor ongeveer 1,5% van de totale elektriciteitsconsumptie op aarde. AI is inmiddels goed voor maar liefst 15% van dit verbruik, en dit percentage zal alleen maar stijgen. Volgens de Internationale Energieagentschap (IEA) zou het wereldwijde energieverbruik door datacenters tegen 2030 kunnen oplopen tot 945 TWh, wat neerkomt op bijna 3% van het wereldwijde elektriciteitsverbruik.
Maar dit is slechts het topje van de ijsberg. AI-servers, die specifiek zijn ontworpen voor de zware rekentaken van modellen zoals GPT‑3, verbruiken jaarlijks maar liefst 30% meer energie dan hun traditionele tegenhangers. Terwijl traditionele servers een jaarlijkse groei van zo’n 9% in energiebehoefte vertonen, zien AI-servers een jaarlijkse groei van 30%. Dit geeft de schaal van de uitdaging aan die voor ons ligt.
Training vs. Inference: de energieverdeling
Bij de ontwikkeling van grote AI-modellen zoals GPT‑3 wordt er onnoemelijk veel energie verbruikt. De training van een dergelijk model verbruikt meer dan 1287 MWh elektriciteit, met een CO₂-uitstoot die gelijkstaat aan het jaarlijks rijden van 112 benzineauto’s. Dit staat in schril contrast met het dagelijkse gebruik van AI, ofwel inference, waarvoor het merendeel van de energie wordt gebruikt: 60% van het totale energieverbruik gaat naar het uitvoeren van AI-taken die door miljoenen gebruikers wereldwijd worden gedaan.
Een voorbeeld: een enkele aanvraag aan een model zoals ChatGPT verbruikt gemiddeld 2,9 Wh, tegenover slechts 0,3 Wh voor een zoekopdracht via Google. Dit toont aan hoe AI de energiebalans in datacenters aanzienlijk verstoort en de uitdaging voor de toekomst vergroot.
Regionale verschillen en infrastructuurdruk
Het energieverbruik van datacenters is niet gelijk verdeeld over de wereld. In de VS bijvoorbeeld wordt het aandeel van datacenters in het totale elektriciteitsverbruik verwacht te stijgen van 4% in 2023 naar maar liefst 9 tot 12% in 2030. Ook in het VK wordt een toename van 160% in datacentervermogen verwacht, wat een aanzienlijke druk legt op de lokale infrastructuur.
Dit heeft ook invloed op andere kritieke bronnen, zoals water, dat essentieel is voor de koeling van datacenters. Tegen 2027 zou de wereldwijde waterconsumptie voor datacenters kunnen oplopen tot maar liefst 6,6 miljard m³ per jaar. Dit leidt op sommige plaatsen al tot restricties voor de uitbreiding van datacenters, zoals bijvoorbeeld in Singapore en Dublin, waar watertekorten de bouw van nieuwe faciliteiten belemmeren.
De vergelijking met dieselgate: lessen voor de toekomst
Het lijkt misschien een ongewone vergelijking, maar de energie-uitdaging die gepaard gaat met AI kan worden vergeleken met de gevolgen van het Dieselgate-schandaal. Toen Volkswagen werd betrapt op het manipuleren van uitstoottests, werd de langdurige impact duidelijk: meer dan 53 miljoen voertuigen werden wereldwijd verkocht met “defeat devices”, die schadelijke emissies verborgen hielden.
Zo kan de impact van AI op de wereld ook onzichtbaar zijn, maar enorme gevolgen hebben. Terwijl Dieselgate vooral de volksgezondheid aantastte, dreigt de groei van AI datacenters vooral te leiden tot structurele problemen op het gebied van klimaat en energiezekerheid. De mondiale energieconsumptie zal niet alleen toenemen, maar ook de infrastructuur onder druk zetten, wat kan leiden tot hogere kosten, verstoorde ecologische systemen en zelfs watertekorten.
Duurzaamheidsinitiatieven en beleidsvorming: het belang van transparantie
In reactie op de groeiende bezorgdheid over het energieverbruik in datacenters, beginnen bedrijven zoals Google al met het publiceren van gedetailleerde uitstoot- en energiegegevens. Zo werd in 2023 gemeld dat een enkele query naar Google’s AI-model Gemini 0,03 g CO₂ uitstoot, wat gelijkstaat aan de energie die nodig is voor slechts 9 seconden tv-kijken. Maar er is een groeiend besef dat dergelijke cijfers mogelijk niet het volledige verhaal vertellen. Kritische vragen blijven bestaan over de onderrapportage van indirecte kosten en de werkelijke milieu-impact.
Desondanks is het belangrijk dat de industrie zich blijft inzetten voor transparantie en dat er gestandaardiseerde metrieken komen om de energie-efficiëntie van AI-modellen te verbeteren. Dit moet worden ondersteund door regionale infrastructuurplanning die rekening houdt met de belasting die AI op de energie- en watervoorziening legt.
Conclusie: wat kunnen we leren van dieselgate?
De AI-revolutie heeft onmiskenbare voordelen, maar de milieukosten die gepaard gaan met het massale energieverbruik van datacenters kunnen niet worden genegeerd. Net als bij Dieselgate is er een grote kans dat we in de toekomst de gevolgen van dit onverantwoorde energieverbruik zullen ondervinden.
Het is van cruciaal belang dat we als samenleving proactief beginnen met het reguleren van AI-energieverbruik, het bevorderen van energie-efficiëntie en het ondersteunen van transparantie-initiatieven. Het zou onverantwoord zijn om deze groei zonder interventie toe te laten. We hebben nog de kans om deze uitdaging aan te gaan voordat we geconfronteerd worden met de volledige impact van deze onzichtbare energierevolutie.
Conclusie: De tijd om actie te ondernemen is nu. Net zoals we zagen bij Dieselgate, kunnen de gevolgen van ongereguleerde groei desastreus zijn. AI moet verantwoord worden ontwikkeld, met volledige transparantie en de nodige infrastructurele aanpassingen. Alleen dan kunnen we de balans vinden tussen vooruitgang en duurzaamheid.
0 reacties