13 maart 2026
0 Reactie(s)

13 maart 2026

AI, GPU’s en de systemische energieblindheid van de digitale infrastructuur

AI vraagt niet alleen reken­kracht, maar ook energie­ver­bruik, netbe­las­ting en maatschap­pe­lijke druk. Toch ontbreekt in veel datacen­ters funda­men­teel inzicht in de energie-effec­ti­vi­teit van GPU-omgevingen. Dit artikel betoogt dat AI-energie­blind­heid geen tijde­lijk meetpro­bleem is, maar een syste­misch risico dat vraagt om nieuwe metrics, norme­ring en bestuur­lijke verantwoordelijkheid.

AI verandert niet alleen workloads, maar ook verantwoordelijkheden

De opkomst van AI-toepas­singen heeft datacen­ters in korte tijd funda­men­teel veran­derd. Waar tradi­ti­o­nele enter­prise-IT werd gedomi­neerd door CPU-gebaseerde workloads met relatief voorspel­baar energie­ge­drag, worden moderne datacen­ters steeds vaker gedreven doorGPU/​TPU Clusters 1met extreem hoge vermogensdichtheden.

Deze verschui­ving wordt vaak gepre­sen­teerd als een schaal­pro­bleem: “meer vermogen, meer koeling, grotere aanslui­tingen”. In werke­lijk­heid is het een bestuur­lijk en syste­misch probleem. AI-infra­struc­tuur verbruikt niet alleen meer energie, maar onttrekt zich ook groten­deels aan bestaande meet- en verantwoordingsstructuren.

De kernvraag is niet: kan het net dit aan?
De kernvraag is: weten we eigen­lijk wat AI-infra­struc­tuur doet met energie — en waarom?

GPU-energie is fundamenteel anders dan CPU-energie

GPU’s zijn geen snellere CPU’s. Ze hebben een totaal ander energe­tisch gedrag:

  • Extreem hoge piekver­mo­gens per node
  • Sterk varia­bele belas­ting afhan­ke­lijk van workloadfase
  • Niet-lineaire relatie tussen load, tempe­ra­tuur en energie
  • Directe afhan­ke­lijk­heid van koeling voor performance

Toch worden GPU-omgevingen vaak gemoni­tord met tools en KPI’s die zijn ontworpen voor CPU-gedreven datacen­ters. Dat leidt tot een funda­men­tele verte­ke­ning van de werkelijkheid.

Wat zicht­baar is:

  • uptime
  • throughput
  • FLOPS

Wat groten­deels onzicht­baar blijft:

  • idle-energie
  • thermi­sche throttling
  • energie­ver­lies door wachttijden
  • energie per AI-output

Zolang deze aspecten niet worden gemeten, kunnen ze ook niet worden gestuurd.

Idle is geen fout, maar een structurele eigenschap

Een van de grootste misver­standen rondom AI-infra­struc­tuur is dat idle-tijd gelijk­staat aan ineffi­ciënt beheer. In werke­lijk­heid is idle een struc­tu­reel kenmerk van GPU-omgevingen.

Oorzaken zijn onder andere:

  • batch-gebaseerde training
  • wacht­tijden tussen runs
  • data-prepro­ces­sing buiten de GPU
  • conser­va­tieve provi­si­o­ning vanwege schaarste

GPU’s verbruiken echter ook in idle-toestand aanzien­lijke hoeveel­heden energie. Zonder inzicht in idle-verbruik ontstaat een illusie van effici­ëntie: de hardware “doet niets”, maar de energie­meter draait door.

Hier ontstaat een funda­men­tele mismatch tussen IT-logica en energierealiteit.

Performance-optimalisatie maskeert energieverlies

AI-teams worden afgere­kend op:

  • trainings­tijd
  • latency
  • model­kwa­li­teit

Energie is zelden een expli­ciete stuur­va­ri­a­bele. Daardoor ontstaan optima­li­sa­ties die vanuit perfor­mance-perspec­tief logisch zijn, maar energe­tisch destruc­tief. Voorbeelden:

  • hogere clocks om deadlines te halen
  • extra nodes “voor zekerheid”
  • agres­sieve koeling om thrott­ling te voorkomen

Zonder energie-context worden deze keuzes ratio­neel beloond, terwijl de systeem­im­pact buiten beeld blijft.

De Dieselgate-parallel: geen fraude, maar meetblindheid

De verge­lij­king met Diesel­gate wordt vaak emoti­o­neel geladen. Het gaat hier niet om fraude, maar om meetblind­heid. Systemen worden geopti­ma­li­seerd binnen het kader van wat zicht­baar en meetbaar is. Wat buiten dat kader valt, telt niet mee.

In AI-infra­struc­tuur leidt dit tot:

  • optima­li­satie voor benchmarks
  • verant­woor­ding zonder context
  • schaal­ver­gro­ting zonder efficiëntiewinst

Het risico is niet alleen technisch, maar maatschap­pe­lijk: AI wordt gezien als een oncon­tro­leer­bare energie­vreter, wat beleids­ma­tige reflexen oproept die innovatie kunnen remmen.

AI-energie als publieke randvoorwaarde

AI-energie­ge­bruik raakt aan:

  • netcon­gestie
  • klimaat­doelen
  • geopo­li­tieke afhankelijkheden
  • publieke accep­tatie van digitale groei

Daarom kan AI-energie niet uitslui­tend worden behan­deld als een intern optima­li­sa­tie­vraag­stuk. Trans­pa­rantie, verge­lijk­baar­heid en verifi­eer­baar­heid zijn publieke randvoorwaarden.

De Stich­ting Save Energy Founda­tion benadert AI-energie daarom niet als concur­ren­tie­pa­ra­meter, maar als systeem­vraag­stuk. Door het ontwik­kelen en borgen van onafhan­ke­lijke metrics voor GPU- en AI-effici­ëntie wordt een basis gelegd voor beleid, norme­ring en eerlijke vergelijking.

Van black box naar bestuurbaar systeem

Zonder integrale data blijft AI een black box. Door IT-perfor­mance, energie­ver­bruik en koeling in samen­hang te meten — zoals Zirrow doet — wordt zichtbaar:

  • waar energie daadwer­ke­lijk wordt ingezet
  • waar struc­tu­rele verliezen optreden
  • welke ontwerp­keuzes ineffi­ci­ën­ties veroorzaken

Pas dan kan AI-infra­struc­tuur worden gestuurd op effec­ti­vi­teit per verbruikte kilowattuur.

AI vraagt om energie-soevereiniteit

AI-innovatie zonder energie-trans­pa­rantie is geen vooruit­gang, maar afhan­ke­lijk­heid. Wie AI serieus neemt, moet energie-inzicht net zo funda­men­teel vinden als modelarchitectuur.

Marco Verzijl

Marco Verzijl

Marco Verzijl is voorzitter van de Save Energy Foundation en bestuurder bij Wcoolit BV en Zirrow BV

0 Reactie(s)

24 weergaven

0 Reactie(s)

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This