De Open Compute Project Global Summit 2025 in San Jose liet op de eerste dag goed zien hoe snel het datacenterlandschap kantelt onder invloed van AI. Met een recordaantal van elfduizend bezoekers voelde de beurs als een barometer voor alles wat er op korte termijn in de serverruimte gaat veranderen: van architectuur tot stroomdistributie, van liquid cooling tot open standaarden. De centrale boodschap was onmiskenbaar: wie AI op schaal wil draaien, moet zijn datacenter modulair, flexibel en open maken — zowel technisch als organisatorisch.
In de keynotes klonk een duidelijke oproep om de klassieke scheidslijnen in het datacenter te doorbreken. Google schetste AI als de motor achter elke cloud- en enterprise-dienst, maar legde de vinger vooral bij de onderliggende faciliteiten. Niet de individuele server of accelerator staat centraal, maar de wendbaarheid van het geheel. Agility, uitwisselbaarheid en flexibiliteit, zo luidde het, worden de primaire ontwerpcriteria. Dat vertaalt zich concreet naar keuzes als 400 volt-distributie in het datacenter, de inzet van solid state-transformatoren en het werken richting microgrid-standaarden, zodat capaciteit in de tijd kan meebewegen met pieken in AI-training en inference. De vergelijking met een maanmissie was niet gratuit: infrastructuurteams bouwen de raketten waar AI op moet vliegen.
Factor tachtig
Nvidia drukte het rendement van AI-hardware in een nieuwe, opvallend directe KPI uit: tokens per investeringseenheid. Inference draait, zo benadrukte het bedrijf, om context en doorvoer. De aangekondigde MGX-compatibele, vloeistofgekoelde generatie — intern aangeduid als Vera Rubin — plaatst datacenters in een nieuwe vermogensklasse met naar eigen zeggen acht exaflops inference per rack, netwerksnelheden van honderden terabytes per seconde en busbars die duizenden ampères aan vloeistofgekoelde stroom kunnen voeren. De roadmap refereerde bovendien aan hogere gelijkspanningsniveaus in het datacenter en aan een ecosysteem van trays en racks die bij 45 graden inlaattemperatuur nog steeds thermisch in het gareel blijven. Opvallend was ook de boodschap dat nauwere koppeling tussen CPU en GPU in samenwerking met Intel de norm wordt in toekomstige systemen.
Oracle plaatste daar een operationele visie naast. AI-superclusters groeien niet alleen in omvang, maar vooral in snelheid; de netwerk-throughput in zulke omgevingen is volgens het bedrijf in negen jaar tijd met een factor tachtig gestegen. Wie voorop wil blijven lopen, moet standaardisatie in de supply chain tot kerncompetentie verheffen. Met verwijzing naar open rack-specificaties werd gesteld dat uniformiteit in componenten en processen de levertijd van weken naar dagen kan terugbrengen — precies het verschil tussen meeliften op een AI-golf of achter de feiten aanlopen.
Samenwerking met ASHRAE
De strategische aankondigingen van OCP zelf waren minstens zo bepalend, omdat ze de randvoorwaarden scheppen waarbinnen al die hardware moet functioneren. Allereerst is er de nieuwe alliantie tussen OCP en ASHRAE op het gebied van liquid cooling. Nu AI-racks structureel richting de tientallen kilowatts per rack en daarboven gaan, moeten facilitaire waterlussen en koelsystemen als direct-to-chip en immersio cooling in samenhang worden ontworpen. De samenwerking richt zich op gemeenschappelijke definities, klassen en ontwerprichtlijnen, zodat integratie van vloeistofgekoelde oplossingen in bestaande en nieuwe datacenters voorspelbaar en veilig kan verlopen. Het effect reikt verder dan de techniek: betere thermische afstemming moet rechtstreeks doorwerken in de PUE-waardes en in de duurzaamheidsscore van een locatie. Het is bovendien een antwoord op een praktische vraag waar veel Europese operators mee worstelen: hoe combineer je vendor-specifieke koeloplossingen met generieke facility-eisen zonder in lock-in te belanden.
OIX en SNIA
Daarnaast kondigde OCP een alliantie met OIX aan rond interconnectie in edge-faciliteiten. Daar waar AI-workloads en data-intensieve diensten elkaar kruisen, lopen de eisen aan netwerkneutraliteit, capaciteit en herhaalbaarheid snel op. Door het harmoniseren van het OIX-2-datacenterkader met de OCP Ready v2-criteria ontstaat één herkenbaar referentiepunt voor locaties die grootschalige interconnectie voor hyperscale-gebruikers willen faciliteren. Voor colocatiepartijen betekent dit dat zij hun sites langs één meetlat kunnen schikken en gericht kunnen investeren in die elementen — van logistieke toegang tot bekabeling en power — die nodig zijn om AI-klanten snel en aantoonbaar te bedienen.
OCP en SNIA vonden elkaar intussen op het vlak van opslag, geheugen en netwerk voor AI-clusters. De boodschap: rekenaccelerators leveren pas wanneer de datalaag meekomt. Met het recente Storage.AI-initiatief, en met werk in ecosystemen rond NVMe, EDSFF en security, moet de enorme stroom aan data efficiënter, zuiniger en voorspelbaarder worden. Het is een nuchtere constatering die in veel AI-projecten onder tafel verdwijnt: zonder standaardisatie in de data-infrastructuur vallen GPU’s terug op wachten in plaats van rekenen. De samenwerking tussen OCP’s open datacenterkaders en SNIA’s vendor-neutrale standaarden moet die knelpunten vanuit beide kanten wegnemen.
OCP Academy
Interessant voor de arbeidsmarkt en voor organisaties die worstelen met kennisopbouw is de lancering van OCP Academy. Het nieuwe e‑learningportaal bundelt bijdragen uit de OCP-database — van specificaties en whitepapers tot summit-sessies — tot gestructureerde, zelf te volgen cursussen. De eerste reeks varieert van een blauwdruk voor schaalbare AI-clusters en een overzicht van open rack-ontwikkeling tot inleidingen over liquid cooling, security-assessments en zelfs laag-CO2-beton voor datacenterfaciliteiten. Ook de interne OCP-processen krijgen vorm in cursusmateriaal, zodat nieuwe vrijwilligers, projectleads en leden sneller productief kunnen worden. Voor datacenterbeheerders in Europa, waar werving lastig is, biedt dit een direct inzetbaar instrument om teams bij te scholen, met content die aansluit op de standaarden die in de markt wortel schieten.
Op silicium- en systeemniveau profileerde Arm zich met een visie op het open, geconvergeerde AI-datacenter. De kern is composability: compute, acceleratie, geheugen en netwerk worden modulair samengebracht via open interfaces. Met de introductie van de Foundation Chiplet System Architecture wil Arm de chiplet-economie versnellen, zodat componenten van verschillende leveranciers in één behuizing naadloos samenwerken. Dat is niet alleen relevant voor hyperscalers; de doorwerking naar edge-toepassingen en automotive wijst op een bredere beweging waarin AI-rekenkracht overal dichter bij de bron komt. De groei van het Arm Total Design-ecosysteem, en de benoeming van Arm tot het OCP-bestuur naast andere zwaargewichten, onderstrepen dat deze visie gewicht in de schaal legt bij het bepalen van toekomstige standaarden.
Lessen voor Europa
Wat betekenen deze lijnen voor datacenter- en operations-teams die morgen beslissingen moeten nemen? Ten eerste dat stroom- en koelingsarchitectuur niet langer een sluitpost zijn. Wie AI-werkbelasting serieus wil nemen, kijkt vandaag al naar 400 volt-distributie, voorbereidingen op hogere DC-spanningen en de plaats van vloeistofkoeling in het eigen facilitaire ontwerp. Ten tweede wordt fungibility een ontwerpdoel: capaciteit moet snel kunnen schuiven tussen trainings- en inference-pools, tussen generaties GPU’s en tussen tenants. Dat vraagt om standaardisatie in racks, voeding, koeling en bekabeling, en om contracten met leveranciers die op die standaarden aansluiten. Ten derde is interconnectie aan de rand geen nice-to-have meer. Metro-edge-locaties die aantoonbaar voldoen aan een geharmoniseerde set eisen, krijgen de voorkeur van klanten die veel datastromen moeten koppelen. En ten vierde: investeer in mensen. Met OCP Academy ligt er een laagdrempelige route om teams bij te spijkeren in exact die onderwerpen die nu het verschil maken.
De summit maakte duidelijk dat open samenwerking geen slogan is, maar een praktisch antwoord op de schaal en snelheid van AI. De nieuwe allianties rond koeling, interconnectie en opslag leggen de fundering onder een generatie datacenters die meer vermogen, meer warmte en meer data moeten verwerken dan ooit. De keynotes gaven richting aan concrete keuzes in architectuur en supply chain. En de educatieve pijler moet ervoor zorgen dat operators en engineers dit alles bijbenen. Voor Europese datacenter managers en specialisten is de les helder: breng de eigen faciliteit in lijn met open, toetsbare kaders, bereid je voor op vloeistofkoeling en hogere spanningen, en maak je organisatie — mensen, processen, inkoop — flexibel. De AI-golf wacht niet tot de machinekamer klaar is.
0 reacties