10 juni 2024
0 Reactie(s)

10 juni 2024

Supermicro introduceert AI SuperClusters

Super Micro Computer intro­du­ceert een kant-en-klaar vloei­stof­ge­koeld AI-datacenter, ontworpen voor cloud-native oplos­singen die de adoptie van genera­tive AI voor bedrijven in verschil­lende sectoren versnellen. 

Dit gebeurt met Super­Clus­ters die zijn geopti­ma­li­seerd voor het NVIDIA AI Enter­prise-softwa­re­plat­form om genera­tive AI te ontwik­kelen en te implementeren. 

Met de vloei­stof­ge­koelde 4U van Super­micro kunnen de onlangs geïntro­du­ceerde Blackwell GPU’s van NVIDIA de AI-perfor­mance van 20 PetaF­LOPS ten volle benutten op een enkele GPU. Ze getuigen van een 4X betere AI-training en 30X betere inferen­tie­pres­ta­ties dan bij de vorige GPU’s, zodat nog meer kosten worden bespaard. In overeen­stem­ming met zijn first-to-market strategie heeft Super­micro onlangs een complete serie van op de NVIDIA Blackwell archi­tec­tuur gebaseerde producten voor de nieuwe NVIDIA HGX B100, B200 en GB200 Grace Blackwell Super­chip aangekondigd.

“Super­micro blijft de industrie leiden in het creëren en imple­men­teren van AI-oplos­singen met vloei­stof­koe­ling op rack-schaal,” zegt Charles Liang, presi­dent en CEO van Super­micro. “Datacen­ters met vloei­stof­koe­ling kunnen vrijwel gratis zijn een extra bonus voor klanten door de voort­du­rende vermin­de­ring van het elektri­ci­teits­ver­bruik. Onze oplos­singen zijn geopti­ma­li­seerd met NVIDIA AI Enter­prise-software voor klanten in verschil­lende sectoren en we leveren wereld­wijde produc­tie­ca­pa­ci­teit met effici­ëntie van wereld­klasse. Zo kunnen we onze vloei­stof­ge­koelde of lucht­ge­koelde kant-en-klare clusters met NVIDIA HGX H100 en H200 en de aanko­mende B100, B200 en GB200-oplos­singen in kortere tijd leveren. Van koelplaten tot CDU’s tot koelto­rens, onze totale vloei­stof­koe­ling op rackschaal kan het stroom­ver­bruik van datacen­ters tot wel 40% verminderen.”

Super­micro presen­teert op COMPUTEX 2024 zijn nieuwe systemen die zijn geopti­ma­li­seerd voor de NVIDIA Blackwell GPU, waaronder een 10U lucht­ge­koeld en een 4U vloei­stof­ge­koeld systeem gebaseerd op de NVIDIA HGX B200. Daarnaast biedt Super­micro een 8U lucht­ge­koeld systeem op basis van de NVIDIA HGX B100, en het NVIDIA GB200 NVL72 rack van Super­micro met 72 onder­ling verbonden GPU’s en NVIDIA NVLink Switches. Verder intro­du­ceert Super­micro de nieuwe NVIDIA MGX systemen, die de NVIDIA H200 NVL PCIe GPU’s en de onlangs aange­kon­digde NVIDIA GB200 NVL2-archi­tec­tuur ondersteunen.

“Genera­tive AI zorgt voor een reset van de hele compu­ting stack – nieuwe datacen­ters krijgen GPU-accele­ratie en worden geopti­ma­li­seerd voor AI,” zegt Jensen Huang, oprichter en CEO van NVIDIA. “Super­micro heeft geavan­ceerde NVIDIA-versnelde computer- en netwerk­op­los­singen ontworpen, waardoor de wereld­wijde datacen­ters van biljoenen dollars kunnen worden geopti­ma­li­seerd voor het AI-tijdperk.”

De snelle ontwik­ke­ling van grote taalmo­dellen en de voort­du­rende nieuwe intro­duc­ties van open-source modellen zoals Llama‑3 van Meta en Mixtral 8x22B van Mistral maken de huidige geavan­ceerde AI-modellen toegan­ke­lijker voor bedrijven. De noodzaak om de AI-infra­struc­tuur te vereen­vou­digen en op de meest kosten­ef­fi­ci­ënte manier toegan­ke­lijk te maken, is van het grootste belang om de huidige razend­snelle AI-revolutie te onder­steunen. De Super­micro cloud-native AI Super­Cluster overbrugt de kloof tussen eenvou­dige, directe toegang tot de cloud en draag­baar­heid. Het maakt gebruik van NVIDIA AI Enter­prise om AI-projecten naadloos van pilot naar productie te brengen, ongeacht de schaal. Dit biedt de flexi­bi­li­teit om overal te draaien met veilig beheerde gegevens, inclu­sief zelfge­hoste systemen of grote datacen­ters op locatie.

Bedrijven in verschil­lende sectoren gaan snel experi­men­teren met genera­tive AI-gebruiks­ge­vallen. Super­micro werkt nauw samen met NVIDIA om een naadloze en flexi­bele overgang te garan­deren van het experi­men­teren en testen van AI-toepas­singen naar de imple­men­tatie van AI in productie en groot­scha­lige datacen­ters. Dit wordt bereikt door optima­li­satie op rack- en cluster­ni­veau met het NVIDIA AI Enter­prise-softwa­re­plat­form, waardoor een soepel traject ontstaat van verken­ning tot groot­scha­lige imple­men­tatie van AI.

Managed services kunnen infra­struc­tuur­keuzes, het delen van gegevens en de controle over de genera­tive AI-strategie in gevaar brengen. NVIDIA NIM-micro­ser­vices, onder­deel van NVIDIA AI Enter­prise, bieden het voordeel van beheerde genera­tive AI en open-source voor een probleem­loze imple­men­tatie. De veelzij­dige inference runtime met micro­ser­vices versnelt de inzet van genera­tive AI voor een breed scala aan modellen, van open-source tot NVIDIA’s founda­tion-modellen. Daarnaast maakt NVIDIA NeMo maatwerk in model­ont­wik­ke­ling mogelijk met datacu­ratie, geavan­ceerde aanpas­sing en retrieval-augmented genera­tion (RAG) voor oplos­singen die klaar zijn voor de onder­ne­ming. In combi­natie met Supermicro’s Super­Clus­ters, ontworpen voor NVIDIA AI Enter­prise, biedt NVIDIA NIM de kortste weg naar schaal­bare, versnelde productie-imple­men­ta­ties met genera­tive AI.

Het huidige genera­tive AI Spercluster-aanbod omvat momenteel:

  • Vloei­stof­ge­koelde Super­micro NVIDIA HGX H100/​H200 Super­Cluster met 256 H100/​H200 GPU’s als schaal­bare reken­een­heid in 5 racks (inclu­sief 1 speciaal netwerkrack);
  • Lucht­ge­koelde Super­micro NVIDIA HGX H100/​H200 Super­Cluster met 256 HGX H100/​H200 GPU’s als schaal­bare reken­een­heid in 9 racks (inclu­sief 1 speciaal netwerkrack);
  • Super­micro NVIDIA MGX GH200 Super­Cluster met 256 GH200 Grace Hopper Super­chips als schaal­bare reken­een­heid in 9 racks (inclu­sief 1 speciaal netwerkrack).

Super­micro Super­Clus­ters zijn NVIDIA AI Enter­prise ready met NVIDIA NIM-micro­ser­vices en het NVIDIA NeMo-platform voor end-to-end genera­tive AI-aanpas­sing. Ze zijn geopti­ma­li­seerd voor NVIDIA Quantum‑2 Infini­Band en het nieuwe NVIDIA Spectrum‑X Ethernet-platform en leveren een netwerk­snel­heid van 400Gb/​per GPU voor het opschalen naar een groot cluster met tiendui­zenden GPU’s.

Supermicro’s nieuwe Super­Cluster-aanbod omvat onder andere:

  • Super­micro NVIDIA HGX B200 Super­Cluster, vloeistofgekoeld;
  • Super­micro NVIDIA HGX B100/​B200 Super­Cluster, luchtgekoeld;
  • Super­micro NVIDIA GB200 NVL72 of NVL36 Super­Cluster, vloeistofgekoeld.

De Super­Cluster-oplos­singen van Super­micro zijn geopti­ma­li­seerd voor LLM-training, deep learning en inferentie met hoge volumes en batch­groottes. De L11 en L12 valida­tie­tests en on-site imple­men­ta­tie­ser­vice van Super­micro bieden klanten een naadloze ervaring. Klanten ontvangen plug-and-play schaal­bare eenheden om ze eenvoudig te imple­men­teren in een datacenter en snellere resul­taten te behalen.

Redactie@DCpedia

Redactie@DCpedia

0 Reactie(s)

Loading

0 Reactie(s)

0 reacties

Een reactie versturen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Huidige abonnees: 34

Pin It on Pinterest

Share This