4 december 2025
0 Reactie(s)

4 december 2025

Red Hat kondigt verbeterde AI‑inferencing op AWS aan

Red Hat kondigt vandaag een uitge­breide samen­wer­king aan met Amazon Web Services (AWS) om genera­tieve AI voor enter­prise organi­sa­ties op AWS mogelijk te maken met behulp van Red Hat AI en AWS AI-chips. Met deze samen­wer­king biedt Red Hat meer keuze­vrij­heid aan IT‑beslissers, zodat zij ongeacht de onder­lig­gende hardware, hoogwaar­dige en effici­ënte AI‑inferencing op grote schaal kunnen draaien.

De opkomst van genera­tieve AI en de groei­ende behoefte aan schaal­bare inferen­cing dwingen organi­sa­ties hun IT‑infrastructuur opnieuw te evalu­eren. IDC voorspelt dat “tegen 2027 40% van de organi­sa­ties gebruik zal maken van maatwerk‑chips, waaronder ARM‑processors of speci­fiek op AI/​ML gerichte chips, om te voldoen aan de toene­mende vraag naar prestatie optima­li­satie, kosten­ef­fi­ci­ëntie en gespe­ci­a­li­seerde compu­ting.” Dit onder­streept de noodzaak van geopti­ma­li­seerde oplos­singen die verwer­kings­kracht verhogen, kosten verlagen en snellere innova­tie­cycli mogelijk maken voor hoogper­for­mante AI‑toepassingen.

De samen­wer­king tussen Red Hat en AWS geeft organi­sa­ties een volle­dige genera­tieve AI‑stack door de uitge­breide platform­ca­pa­ci­teiten van Red Hat te combi­neren met de cloud­in­fra­struc­tuur en AI‑chipsets van AWS, AWS Inferentia2 en AWS Trainium3. 

De belang­rijkste aspecten van deze samenwerking:

  • Red Hat AI Inference Server op AWS AI‑chips: Red Hat AI Inference Server, gebaseerd op vLLM, wordt geschikt gemaakt voor AWS AI‑chips, waaronder AWS Inferentia2 en AWS Trainium3. Hierdoor ontstaat een gemeen­schap­pe­lijke inferen­tie­laag die ieder genera­tieve AI‑model kan onder­steunen. Zo kunnen klanten hogere presta­ties, lagere latency en een gunstige kosten­struc­tuur reali­seren wanneer zij AI-toepas­singen opschalen in productie. Dit leidt tot een prijs‑prestatieverhouding die tot 30 – 40% beter is dan huidige, verge­lijk­bare GPU‑gebaseerde Amazon EC2‑instances.
  • AI op Red Hat OpenS­hift: Red Hat heeft samen met AWS een AWS Neuron‑operator ontwik­keld voor Red Hat OpenS­hiftRed Hat OpenS­hift AI en Red Hat OpenS­hift Service on AWS, een uitge­breid en volledig beheerd appli­ca­tie­plat­form op AWS. Hiermee krijgen klanten een onder­steunde manier om hun AI‑workloads met AWS‑accelerators te draaien.
  • Toegan­ke­lijk­heid en eenvou­dige uitrol: Door onder­steu­ning door AWS AI‑chips biedt Red Hat klanten op AWS verbe­terde en eenvou­di­gere toegang tot veelge­vraagde krach­tige accele­ra­tors. Daarnaast heeft Red Hat onlangs de amazon​.ai Ansible Certi­fied Collec­tion voor Red Hat Ansible Automa­tion Platform gelan­ceerd die het orkestreren van AI-diensten op AWS vereenvoudigt.
  • Bijdrage aan de upstream commu­nity: Als promi­nente bijdrager aan de open source-commu­nity wereld­wijd, draagt Red Hat samen met AWS bij aan het optima­li­seren van een AWS AI‑chip plugin die upstream wordt bijge­dragen aan vLLM. Als de belang­rijkste commer­ciële bijdrager aan vLLM zet Red Hat zich ervoor in vLLM op AWS te onder­steunen en zo de mogelijk­heden voor AI‑inferencing en training voor gebrui­kers te vergroten. vLLM vormt boven­dien de basis van llm‑d, een open source‑project gericht op inferen­cing op grote schaal en nu beschik­baar als commer­cieel onder­steu­nende functi­o­na­li­teit in Red Hat OpenS­hift AI 3.

Red Hat werkt al tijden samen met AWS om klanten beter te onder­steunen van het datacenter tot aan de edge. Deze nieuwe mijlpaal komt de veran­de­rende behoeften van organi­sa­ties tegemoet die AI integreren in hun hybride cloud­stra­tegie om geopti­ma­li­seerde en effici­ënte genera­tieve AI‑resultaten te behalen.

“Door onze enter­prise-grade Red Hat AI Inference Server – gebouwd op het innova­tieve vLLM‑framework – te onder­steunen met AWS AI‑chips, stellen we organi­sa­ties in staat AI‑workloads met meer effici­ëntie en flexi­bi­li­teit uit te rollen en op te schalen. Deze samen­wer­king bouwt voor op Red Hats open source‑gedachtegoed en is erop gericht genera­tieve AI toegan­ke­lijker en kosten­ef­fec­tiever te maken in hybride cloudom­ge­vingen”, aldus Joe Fernandes, vice presi­dent en general manager, AI Business Unit, Red Hat.

“Grote organi­sa­ties vragen om oplos­singen die uitzon­der­lijke presta­ties, kosten­ef­fi­ci­ëntie en opera­ti­o­nele keuze­vrij­heid bieden voor bedrijfs­kri­ti­sche AI‑workloads. AWS heeft Trainium‑ en Inferentia‑chips ontwik­keld om hoogwaar­dige AI‑inferencing en training toegan­ke­lijker en betaal­baarder te maken. Onze samen­wer­king met Red Hat biedt klanten een onder­steu­nende manier om genera­tieve AI op schaal in te zetten. We combi­neren de flexi­bi­li­teit van open source met de infra­struc­tuur van AWS en speciaal ontworpen AI‑accelerators om de ontwik­kel­tijd van pilot tot productie te versnellen”, zegt Colin Brace, vice presi­dent, Annapurna Labs, AWS.

De AWS Neuron commu­nity-operator is nu beschik­baar in de Red Hat OpenS­hift Opera­torHub voor klanten die Red Hat OpenS­hift of Red Hat OpenS­hift Service on AWS gebruiken. Onder­steu­ning voor AWS AI‑chips in Red Hat AI Inference Server is naar verwach­ting per januari 2026 beschik­baar in devel­oper preview.

Redactie@DCpedia

Redactie@DCpedia

0 Reactie(s)

39 weergaven

0 Reactie(s)

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This