20 oktober 2025
0 Reactie(s)

20 oktober 2025

AI dwingt datacenters tot herontwerp: open standaarden, vloeistofkoeling en fungibiliteit centraal op OCP Summit 2025

De Open Compute Project Global Summit 2025 in San Jose liet op de eerste dag goed zien hoe snel het datacen­ter­land­schap kantelt onder invloed van AI. Met een record­aantal van elfdui­zend bezoe­kers voelde de beurs als een barometer voor alles wat er op korte termijn in de server­ruimte gaat veran­deren: van archi­tec­tuur tot stroom­dis­tri­butie, van liquid cooling tot open standaarden. De centrale boodschap was onmis­ken­baar: wie AI op schaal wil draaien, moet zijn datacenter modulair, flexibel en open maken — zowel technisch als organisatorisch.

In de keynotes klonk een duide­lijke oproep om de klassieke scheids­lijnen in het datacenter te doorbreken. Google schetste AI als de motor achter elke cloud- en enter­prise-dienst, maar legde de vinger vooral bij de onder­lig­gende facili­teiten. Niet de indivi­duele server of accele­rator staat centraal, maar de wendbaar­heid van het geheel. Agility, uitwis­sel­baar­heid en flexi­bi­li­teit, zo luidde het, worden de primaire ontwerp­cri­teria. Dat vertaalt zich concreet naar keuzes als 400 volt-distri­butie in het datacenter, de inzet van solid state-trans­for­ma­toren en het werken richting micro­grid-standaarden, zodat capaci­teit in de tijd kan meebe­wegen met pieken in AI-training en inference. De verge­lij­king met een maanmissie was niet gratuit: infra­struc­tuur­teams bouwen de raketten waar AI op moet vliegen.

Factor tachtig

Nvidia drukte het rende­ment van AI-hardware in een nieuwe, opval­lend directe KPI uit: tokens per inves­te­rings­een­heid. Inference draait, zo benadrukte het bedrijf, om context en doorvoer. De aange­kon­digde MGX-compa­ti­bele, vloei­stof­ge­koelde generatie — intern aange­duid als Vera Rubin — plaatst datacen­ters in een nieuwe vermo­gens­klasse met naar eigen zeggen acht exaflops inference per rack, netwerk­snel­heden van honderden terabytes per seconde en busbars die duizenden ampères aan vloei­stof­ge­koelde stroom kunnen voeren. De roadmap refereerde boven­dien aan hogere gelijk­span­nings­ni­veaus in het datacenter en aan een ecosys­teem van trays en racks die bij 45 graden inlaat­tem­pe­ra­tuur nog steeds thermisch in het gareel blijven. Opval­lend was ook de boodschap dat nauwere koppe­ling tussen CPU en GPU in samen­wer­king met Intel de norm wordt in toekom­stige systemen.

Oracle plaatste daar een opera­ti­o­nele visie naast. AI-super­clus­ters groeien niet alleen in omvang, maar vooral in snelheid; de netwerk-throughput in zulke omgevingen is volgens het bedrijf in negen jaar tijd met een factor tachtig gestegen. Wie voorop wil blijven lopen, moet standaar­di­satie in de supply chain tot kerncom­pe­tentie verheffen. Met verwij­zing naar open rack-speci­fi­ca­ties werd gesteld dat unifor­mi­teit in compo­nenten en processen de lever­tijd van weken naar dagen kan terug­brengen — precies het verschil tussen meeliften op een AI-golf of achter de feiten aanlopen.

Samenwerking met ASHRAE

De strate­gi­sche aankon­di­gingen van OCP zelf waren minstens zo bepalend, omdat ze de randvoor­waarden scheppen waarbinnen al die hardware moet functi­o­neren. Aller­eerst is er de nieuwe alliantie tussen OCP en ASHRAE op het gebied van liquid cooling. Nu AI-racks struc­tu­reel richting de tientallen kilowatts per rack en daarboven gaan, moeten facili­taire water­lussen en koelsys­temen als direct-to-chip en immersio cooling in samen­hang worden ontworpen. De samen­wer­king richt zich op gemeen­schap­pe­lijke defini­ties, klassen en ontwerp­richt­lijnen, zodat integratie van vloei­stof­ge­koelde oplos­singen in bestaande en nieuwe datacen­ters voorspel­baar en veilig kan verlopen. Het effect reikt verder dan de techniek: betere thermi­sche afstem­ming moet recht­streeks doorwerken in de PUE-waardes en in de duurzaam­heids­score van een locatie. Het is boven­dien een antwoord op een prakti­sche vraag waar veel Europese opera­tors mee worstelen: hoe combi­neer je vendor-speci­fieke koelo­p­los­singen met generieke facility-eisen zonder in lock-in te belanden.

OIX en SNIA

Daarnaast kondigde OCP een alliantie met OIX aan rond inter­con­nectie in edge-facili­teiten. Daar waar AI-workloads en data-inten­sieve diensten elkaar kruisen, lopen de eisen aan netwerkneu­tra­li­teit, capaci­teit en herhaal­baar­heid snel op. Door het harmo­ni­seren van het OIX-2-datacen­ter­kader met de OCP Ready v2-criteria ontstaat één herken­baar referen­tie­punt voor locaties die groot­scha­lige inter­con­nectie voor hypers­cale-gebrui­kers willen facili­teren. Voor coloca­tie­par­tijen betekent dit dat zij hun sites langs één meetlat kunnen schikken en gericht kunnen inves­teren in die elementen — van logis­tieke toegang tot bekabe­ling en power — die nodig zijn om AI-klanten snel en aantoon­baar te bedienen.

OCP en SNIA vonden elkaar intussen op het vlak van opslag, geheugen en netwerk voor AI-clusters. De boodschap: rekenac­ce­le­ra­tors leveren pas wanneer de datalaag meekomt. Met het recente Storage.AI-initiatief, en met werk in ecosys­temen rond NVMe, EDSFF en security, moet de enorme stroom aan data effici­ënter, zuiniger en voorspel­baarder worden. Het is een nuchtere consta­te­ring die in veel AI-projecten onder tafel verdwijnt: zonder standaar­di­satie in de data-infra­struc­tuur vallen GPU’s terug op wachten in plaats van rekenen. De samen­wer­king tussen OCP’s open datacen­ter­ka­ders en SNIA’s vendor-neutrale standaarden moet die knelpunten vanuit beide kanten wegnemen.

OCP Academy

Interes­sant voor de arbeids­markt en voor organi­sa­ties die worstelen met kennis­op­bouw is de lance­ring van OCP Academy. Het nieuwe e‑learningportaal bundelt bijdragen uit de OCP-database — van speci­fi­ca­ties en white­pa­pers tot summit-sessies — tot gestruc­tu­reerde, zelf te volgen cursussen. De eerste reeks varieert van een blauw­druk voor schaal­bare AI-clusters en een overzicht van open rack-ontwik­ke­ling tot inlei­dingen over liquid cooling, security-assess­ments en zelfs laag-CO2-beton voor datacen­ter­fa­ci­li­teiten. Ook de interne OCP-processen krijgen vorm in cursus­ma­te­riaal, zodat nieuwe vrijwil­li­gers, project­leads en leden sneller produc­tief kunnen worden. Voor datacen­ter­be­heer­ders in Europa, waar werving lastig is, biedt dit een direct inzet­baar instru­ment om teams bij te scholen, met content die aansluit op de standaarden die in de markt wortel schieten.

Op silicium- en systeem­ni­veau profi­leerde Arm zich met een visie op het open, gecon­ver­geerde AI-datacenter. De kern is compo­sa­bi­lity: compute, accele­ratie, geheugen en netwerk worden modulair samen­ge­bracht via open inter­faces. Met de intro­ductie van de Founda­tion Chiplet System Archi­tec­ture wil Arm de chiplet-economie versnellen, zodat compo­nenten van verschil­lende leveran­ciers in één behui­zing naadloos samen­werken. Dat is niet alleen relevant voor hypers­ca­lers; de doorwer­king naar edge-toepas­singen en automo­tive wijst op een bredere beweging waarin AI-reken­kracht overal dichter bij de bron komt. De groei van het Arm Total Design-ecosys­teem, en de benoe­ming van Arm tot het OCP-bestuur naast andere zwaar­ge­wichten, onder­strepen dat deze visie gewicht in de schaal legt bij het bepalen van toekom­stige standaarden.

Lessen voor Europa

Wat betekenen deze lijnen voor datacenter- en opera­tions-teams die morgen beslis­singen moeten nemen? Ten eerste dat stroom- en koelings­ar­chi­tec­tuur niet langer een sluit­post zijn. Wie AI-werkbe­las­ting serieus wil nemen, kijkt vandaag al naar 400 volt-distri­butie, voorbe­rei­dingen op hogere DC-spanningen en de plaats van vloei­stof­koe­ling in het eigen facili­taire ontwerp. Ten tweede wordt fungi­bi­lity een ontwerp­doel: capaci­teit moet snel kunnen schuiven tussen trainings- en inference-pools, tussen genera­ties GPU’s en tussen tenants. Dat vraagt om standaar­di­satie in racks, voeding, koeling en bekabe­ling, en om contracten met leveran­ciers die op die standaarden aansluiten. Ten derde is inter­con­nectie aan de rand geen nice-to-have meer. Metro-edge-locaties die aantoon­baar voldoen aan een gehar­mo­ni­seerde set eisen, krijgen de voorkeur van klanten die veel datastromen moeten koppelen. En ten vierde: inves­teer in mensen. Met OCP Academy ligt er een laagdrem­pe­lige route om teams bij te spijkeren in exact die onder­werpen die nu het verschil maken.

De summit maakte duide­lijk dat open samen­wer­king geen slogan is, maar een praktisch antwoord op de schaal en snelheid van AI. De nieuwe allian­ties rond koeling, inter­con­nectie en opslag leggen de funde­ring onder een generatie datacen­ters die meer vermogen, meer warmte en meer data moeten verwerken dan ooit. De keynotes gaven richting aan concrete keuzes in archi­tec­tuur en supply chain. En de educa­tieve pijler moet ervoor zorgen dat opera­tors en engineers dit alles bijbenen. Voor Europese datacenter managers en speci­a­listen is de les helder: breng de eigen facili­teit in lijn met open, toets­bare kaders, bereid je voor op vloei­stof­koe­ling en hogere spanningen, en maak je organi­satie — mensen, processen, inkoop — flexibel. De AI-golf wacht niet tot de machi­ne­kamer klaar is.

Robbert Hoeffnagel

Robbert Hoeffnagel

Editor en journalist @ DCpedia

0 Reactie(s)

45 weergaven

0 Reactie(s)

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This