17 januari 2025
0 Reactie(s)

17 januari 2025

Terugblik en vooruit kijken naar oplossingen voor het koelen van AI-datacenters

Een voordeel van langdurig in dezelfde markt werken is dat je makke­lijker trends kunt spotten: wanneer iets ouds na verloop van tijd opnieuw populair wordt, of als een bestaande techno­logie uitkomst kan bieden voor nieuwe uitdagingen.

Dit senti­ment is atypisch, want door AI veran­dert een groot deel van de datacen­ter­markt radicaal. De koeling die nodig is om AI te imple­men­teren en onder­steunen, heeft echter diepe wortels in het verleden. Daarom eerst een terug­blik naar 2008, alvorens vooruit te kijken.

Efficiënte datacenterkoeling uit 2008

Vanaf 2008 begon Sun Micro­sys­tems (vóór de overname door Oracle) zijn datacen­ter­ont­werpen te delen en te promoten. Sommige van hun concepten, zoals het elimi­neren van verhoogde vloeren, het onder­steunen van alle stroom­voor­zie­ning en boven­grondse distri­butie van bekabe­ling, werden in de jaren erna de pijlers van hypers­cale datacenters. 

In 2008 hield Sun een ‘Chill Off’, een onafhan­ke­lijke wedstrijd om de meest effici­ënte datacen­ter­koe­ling voor imple­men­ta­ties met een hoge dicht­heid te identi­fi­ceren. De Cool Blue Rear Door Heat Exchanger van IBM won deze wedstrijd en onder­steunde een 10kW-instal­latie op wat de testcri­teria als de meest energie­zui­nige manier beschouwden.

Kort daarna betrad Sun de commer­ciële markt voor warmte­wis­se­laars in deuren, met de intro­ductie van hun Glacier-oplos­sing op de Super­com­pu­ting 2008-vakbeurs. Glacier verhoogde de koelca­pa­ci­teit voor een deur van een server­kast aanzien­lijk, met onder­steu­ning van 35 kW in een verge­lijk­baar passief ontwerp zonder ventilator.

Eveneens in 2008 imple­men­teerde het National Center for Atmos­p­heric Research (NCAR) een nieuwe super­com­puter genaamd Bluefire. Destijds stond Bluefire op nummer 31 in de top 500 van super­com­pu­ters, met een maximale stroom­be­hoefte van 649 kW. Het stroom­ver­bruik per rack overschreed 30 kW, dus het systeem gebruikte drie niveaus van datacenterkoeling:

  1. Direct-to-chip-koeling met ‘water­ge­koelde koper­platen die in direct contact met elke POWER6-micro­pro­ces­sor­chip zijn gemonteerd’
  2. De IBM Cool Blue warmte­wis­se­laar gemon­teerd op elke kast
  3. Tradi­ti­o­nele verhoogde vloerkoeling

De ontwik­ke­lingen in 2008 voorspellen voor een deel al de potentie van twee techno­lo­gieën voor de onder­steu­ning van AI-imple­men­ta­ties: direct-to-chip-koeling en warmte­wis­se­laars in deuren, met de opkomende behoefte om deze te koppelen. Technieken die destijds alleen bestemd waren voor super­com­pu­ters (zoals Bluefire) kunnen mainstream worden als de prognoses voor AI-imple­men­ta­ties uitkomen (en de resul­taten van NVIDIA wijzen al in die richting).

Keuzes voor datacenterkoeling beïnvloeden AI-landschap

Er komen discus­sies tussen leveran­ciers en ontwer­pers, bijvoor­beeld over of een dialec­ti­sche vloei­stof of water het beste direct-to-chip medium is, of dat dompel­koe­ling een betere optie is. Het goede nieuws is dat ondanks de enorme veran­de­ringen in IT, de koeltech­nieken om AI te verwerken al eerder in kaart zijn gebracht. Deze kennis, nog steeds vooral aanwezig bij grote labora­toria en R&D‑intensieve organi­sa­ties, moet worden gedeeld met een breder publiek.

Ontdek meer over onze kennis en ervaring met het koelen van datacen­ters en hoe Panduit een naadloze integratie van producten en oplos­singen kan leveren om AI-netwerken mogelijk te maken. Bezoek daarvoor onze pagina over kunst­ma­tige intel­li­gentie.

Justin Blumberg

Justin Blumberg

Justin Blumberg is senior solutions architect bij Panduit

0 Reactie(s)

18 weergaven

0 Reactie(s)

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This