Mirantis, actief met open-source cloudinfrastructuur en platformengineering, kondigt vandaag aan dat de Nederlandse private cloud provider Nebul heeft gekozen voor open-source k0rdent. Met deze on-demand dienst kunnen klanten AI-inferencing in productie draaien. Dit stelt hen in staat om getrainde modellen toe te passen op nieuwe data en zo nauwkeurige voorspellingen of beslissingen te genereren.
Sinds de oprichting richt Nebul zich op privacy en soevereiniteit, met een brede Europese dekking. Het bedrijf is een pionier in high-performance computing, Artificial Intelligence (AI) en machine learning technologieën, waarbij het de rekenkracht van NVIDIA-processors benut. Nebul zet k0rdent in, een Kubernetes-native multi-clusterbeheeroplossing die is geïntegreerd met NVIDIA GPU Operator en Gcore Everywhere Inference, (meer details in deze case study).
Nebul ondersteunt gedistribueerde AI-inferencing binnen zijn infrastructuur, waardoor lage latentie en hoge prestaties worden geleverd. Dynamisch toegewezen verwerkingsbronnen voldoen aan de vraag, terwijl beleidsgestuurde automatisering zorgt voor een optimale benutting van GPU’s en maximale efficiëntie.
“Wij geloven dat open source de sleutel is tot infrastructuur die AI ondersteunt,” zegt Alex Freedland, medeoprichter en CEO van Mirantis, de beheerder van k0rdent. “Nebul laat het enorme potentieel van open technologieën zien om één van de meest complexe IT-uitdagingen van vandaag op te lossen: het betrouwbaar en op schaal leveren van AI-workloads.”
k0rdent, dat vorige maand werd gelanceerd, helpt platformengineers bij het beheren van de groeiende infrastructuur en operationele complexiteit over cloudproviders, on-premises infrastructuur en edge-apparaten. Het vereenvoudigt onderhoud met declarative automation, centrale handhaving van beleidsregels en productieklare sjablonen die zijn geoptimaliseerd voor moderne workloads. k0rdent is volledig modulair en maakt gebruik van de open-source Cluster API, waardoor Kubernetes-clusters overal kunnen worden gecreëerd en bestaande clusters eenvoudig kunnen worden ingezet.“Nu de vraag naar AI-diensten groeit, was onze uitdaging om onze bestaande infrastructuur over te zetten,” zegt Arnold Juffer, CEO en oprichter van Nebul, een NVIDIA Elite Partner, Cloud Partner en Solution Provider. “Door k0rdent in te zetten, kunnen we onze diverse infrastructuur effectief verenigen over OpenStack en bare metal Kubernetes, terwijl we afscheid nemen van de VMware-technologie en volledig overstappen op open source. Dit stroomlijnt onze operaties en versnelt onze transitie naar Inference-as-a-Service voor zakelijke klanten. Zij kunnen hun getrainde AI-model nu eenvoudig naar hun data brengen en uitvoeren, met volledige zekerheid over privacy en soevereiniteit, conform de regelgeving. Zo simpel is het.”
“Zoals Nebul aantoont, vereist grootschalige AI-inferencing een infrastructuur die zich dynamisch aanpast aan de behoeften van eindklanten, zodat AI-toepassingen voldoen aan de zakelijke eisen op het gebied van kosten en prestaties,” aldus Seva Vayner, productdirecteur Edge Cloud en Edge AI bij Gcore. “Ons Everywhere Inference-product biedt een uiterst eenvoudige portal om AI-inferencing te implementeren en beheren, terwijl Smart Routing ervoor zorgt dat inference-taken naar de dichtstbijzijnde GPU’s worden gestuurd voor de laagste latentie.”
0 reacties