AI vraagt niet alleen rekenkracht, maar ook energieverbruik, netbelasting en maatschappelijke druk. Toch ontbreekt in veel datacenters fundamenteel inzicht in de energie-effectiviteit van GPU-omgevingen. Dit artikel betoogt dat AI-energieblindheid geen tijdelijk meetprobleem is, maar een systemisch risico dat vraagt om nieuwe metrics, normering en bestuurlijke verantwoordelijkheid.
AI verandert niet alleen workloads, maar ook verantwoordelijkheden
De opkomst van AI-toepassingen heeft datacenters in korte tijd fundamenteel veranderd. Waar traditionele enterprise-IT werd gedomineerd door CPU-gebaseerde workloads met relatief voorspelbaar energiegedrag, worden moderne datacenters steeds vaker gedreven doorGPU/TPU Clusters 1met extreem hoge vermogensdichtheden.
Deze verschuiving wordt vaak gepresenteerd als een schaalprobleem: “meer vermogen, meer koeling, grotere aansluitingen”. In werkelijkheid is het een bestuurlijk en systemisch probleem. AI-infrastructuur verbruikt niet alleen meer energie, maar onttrekt zich ook grotendeels aan bestaande meet- en verantwoordingsstructuren.
De kernvraag is niet: kan het net dit aan?
De kernvraag is: weten we eigenlijk wat AI-infrastructuur doet met energie — en waarom?
GPU-energie is fundamenteel anders dan CPU-energie
GPU’s zijn geen snellere CPU’s. Ze hebben een totaal ander energetisch gedrag:
- Extreem hoge piekvermogens per node
- Sterk variabele belasting afhankelijk van workloadfase
- Niet-lineaire relatie tussen load, temperatuur en energie
- Directe afhankelijkheid van koeling voor performance
Toch worden GPU-omgevingen vaak gemonitord met tools en KPI’s die zijn ontworpen voor CPU-gedreven datacenters. Dat leidt tot een fundamentele vertekening van de werkelijkheid.
Wat zichtbaar is:
- uptime
- throughput
- FLOPS
Wat grotendeels onzichtbaar blijft:
- idle-energie
- thermische throttling
- energieverlies door wachttijden
- energie per AI-output
Zolang deze aspecten niet worden gemeten, kunnen ze ook niet worden gestuurd.
Idle is geen fout, maar een structurele eigenschap
Een van de grootste misverstanden rondom AI-infrastructuur is dat idle-tijd gelijkstaat aan inefficiënt beheer. In werkelijkheid is idle een structureel kenmerk van GPU-omgevingen.
Oorzaken zijn onder andere:
- batch-gebaseerde training
- wachttijden tussen runs
- data-preprocessing buiten de GPU
- conservatieve provisioning vanwege schaarste
GPU’s verbruiken echter ook in idle-toestand aanzienlijke hoeveelheden energie. Zonder inzicht in idle-verbruik ontstaat een illusie van efficiëntie: de hardware “doet niets”, maar de energiemeter draait door.
Hier ontstaat een fundamentele mismatch tussen IT-logica en energierealiteit.
Performance-optimalisatie maskeert energieverlies
AI-teams worden afgerekend op:
- trainingstijd
- latency
- modelkwaliteit
Energie is zelden een expliciete stuurvariabele. Daardoor ontstaan optimalisaties die vanuit performance-perspectief logisch zijn, maar energetisch destructief. Voorbeelden:
- hogere clocks om deadlines te halen
- extra nodes “voor zekerheid”
- agressieve koeling om throttling te voorkomen
Zonder energie-context worden deze keuzes rationeel beloond, terwijl de systeemimpact buiten beeld blijft.
De Dieselgate-parallel: geen fraude, maar meetblindheid
De vergelijking met Dieselgate wordt vaak emotioneel geladen. Het gaat hier niet om fraude, maar om meetblindheid. Systemen worden geoptimaliseerd binnen het kader van wat zichtbaar en meetbaar is. Wat buiten dat kader valt, telt niet mee.
In AI-infrastructuur leidt dit tot:
- optimalisatie voor benchmarks
- verantwoording zonder context
- schaalvergroting zonder efficiëntiewinst
Het risico is niet alleen technisch, maar maatschappelijk: AI wordt gezien als een oncontroleerbare energievreter, wat beleidsmatige reflexen oproept die innovatie kunnen remmen.
AI-energie als publieke randvoorwaarde
AI-energiegebruik raakt aan:
- netcongestie
- klimaatdoelen
- geopolitieke afhankelijkheden
- publieke acceptatie van digitale groei
Daarom kan AI-energie niet uitsluitend worden behandeld als een intern optimalisatievraagstuk. Transparantie, vergelijkbaarheid en verifieerbaarheid zijn publieke randvoorwaarden.
De Stichting Save Energy Foundation benadert AI-energie daarom niet als concurrentieparameter, maar als systeemvraagstuk. Door het ontwikkelen en borgen van onafhankelijke metrics voor GPU- en AI-efficiëntie wordt een basis gelegd voor beleid, normering en eerlijke vergelijking.
Van black box naar bestuurbaar systeem
Zonder integrale data blijft AI een black box. Door IT-performance, energieverbruik en koeling in samenhang te meten — zoals Zirrow doet — wordt zichtbaar:
- waar energie daadwerkelijk wordt ingezet
- waar structurele verliezen optreden
- welke ontwerpkeuzes inefficiënties veroorzaken
Pas dan kan AI-infrastructuur worden gestuurd op effectiviteit per verbruikte kilowattuur.
AI vraagt om energie-soevereiniteit
AI-innovatie zonder energie-transparantie is geen vooruitgang, maar afhankelijkheid. Wie AI serieus neemt, moet energie-inzicht net zo fundamenteel vinden als modelarchitectuur.

0 reacties