Red Hat kondigt vandaag een uitgebreide samenwerking aan met Amazon Web Services (AWS) om generatieve AI voor enterprise organisaties op AWS mogelijk te maken met behulp van Red Hat AI en AWS AI-chips. Met deze samenwerking biedt Red Hat meer keuzevrijheid aan IT‑beslissers, zodat zij ongeacht de onderliggende hardware, hoogwaardige en efficiënte AI‑inferencing op grote schaal kunnen draaien.
De opkomst van generatieve AI en de groeiende behoefte aan schaalbare inferencing dwingen organisaties hun IT‑infrastructuur opnieuw te evalueren. IDC voorspelt dat “tegen 2027 40% van de organisaties gebruik zal maken van maatwerk‑chips, waaronder ARM‑processors of specifiek op AI/ML gerichte chips, om te voldoen aan de toenemende vraag naar prestatie optimalisatie, kostenefficiëntie en gespecialiseerde computing.” Dit onderstreept de noodzaak van geoptimaliseerde oplossingen die verwerkingskracht verhogen, kosten verlagen en snellere innovatiecycli mogelijk maken voor hoogperformante AI‑toepassingen.
De samenwerking tussen Red Hat en AWS geeft organisaties een volledige generatieve AI‑stack door de uitgebreide platformcapaciteiten van Red Hat te combineren met de cloudinfrastructuur en AI‑chipsets van AWS, AWS Inferentia2 en AWS Trainium3.
De belangrijkste aspecten van deze samenwerking:
- Red Hat AI Inference Server op AWS AI‑chips: Red Hat AI Inference Server, gebaseerd op vLLM, wordt geschikt gemaakt voor AWS AI‑chips, waaronder AWS Inferentia2 en AWS Trainium3. Hierdoor ontstaat een gemeenschappelijke inferentielaag die ieder generatieve AI‑model kan ondersteunen. Zo kunnen klanten hogere prestaties, lagere latency en een gunstige kostenstructuur realiseren wanneer zij AI-toepassingen opschalen in productie. Dit leidt tot een prijs‑prestatieverhouding die tot 30 – 40% beter is dan huidige, vergelijkbare GPU‑gebaseerde Amazon EC2‑instances.
- AI op Red Hat OpenShift: Red Hat heeft samen met AWS een AWS Neuron‑operator ontwikkeld voor Red Hat OpenShift, Red Hat OpenShift AI en Red Hat OpenShift Service on AWS, een uitgebreid en volledig beheerd applicatieplatform op AWS. Hiermee krijgen klanten een ondersteunde manier om hun AI‑workloads met AWS‑accelerators te draaien.
- Toegankelijkheid en eenvoudige uitrol: Door ondersteuning door AWS AI‑chips biedt Red Hat klanten op AWS verbeterde en eenvoudigere toegang tot veelgevraagde krachtige accelerators. Daarnaast heeft Red Hat onlangs de amazon.ai Ansible Certified Collection voor Red Hat Ansible Automation Platform gelanceerd die het orkestreren van AI-diensten op AWS vereenvoudigt.
- Bijdrage aan de upstream community: Als prominente bijdrager aan de open source-community wereldwijd, draagt Red Hat samen met AWS bij aan het optimaliseren van een AWS AI‑chip plugin die upstream wordt bijgedragen aan vLLM. Als de belangrijkste commerciële bijdrager aan vLLM zet Red Hat zich ervoor in vLLM op AWS te ondersteunen en zo de mogelijkheden voor AI‑inferencing en training voor gebruikers te vergroten. vLLM vormt bovendien de basis van llm‑d, een open source‑project gericht op inferencing op grote schaal en nu beschikbaar als commercieel ondersteunende functionaliteit in Red Hat OpenShift AI 3.
Red Hat werkt al tijden samen met AWS om klanten beter te ondersteunen van het datacenter tot aan de edge. Deze nieuwe mijlpaal komt de veranderende behoeften van organisaties tegemoet die AI integreren in hun hybride cloudstrategie om geoptimaliseerde en efficiënte generatieve AI‑resultaten te behalen.
“Door onze enterprise-grade Red Hat AI Inference Server – gebouwd op het innovatieve vLLM‑framework – te ondersteunen met AWS AI‑chips, stellen we organisaties in staat AI‑workloads met meer efficiëntie en flexibiliteit uit te rollen en op te schalen. Deze samenwerking bouwt voor op Red Hats open source‑gedachtegoed en is erop gericht generatieve AI toegankelijker en kosteneffectiever te maken in hybride cloudomgevingen”, aldus Joe Fernandes, vice president en general manager, AI Business Unit, Red Hat.
“Grote organisaties vragen om oplossingen die uitzonderlijke prestaties, kostenefficiëntie en operationele keuzevrijheid bieden voor bedrijfskritische AI‑workloads. AWS heeft Trainium‑ en Inferentia‑chips ontwikkeld om hoogwaardige AI‑inferencing en training toegankelijker en betaalbaarder te maken. Onze samenwerking met Red Hat biedt klanten een ondersteunende manier om generatieve AI op schaal in te zetten. We combineren de flexibiliteit van open source met de infrastructuur van AWS en speciaal ontworpen AI‑accelerators om de ontwikkeltijd van pilot tot productie te versnellen”, zegt Colin Brace, vice president, Annapurna Labs, AWS.
De AWS Neuron community-operator is nu beschikbaar in de Red Hat OpenShift OperatorHub voor klanten die Red Hat OpenShift of Red Hat OpenShift Service on AWS gebruiken. Ondersteuning voor AWS AI‑chips in Red Hat AI Inference Server is naar verwachting per januari 2026 beschikbaar in developer preview.

0 reacties