22 maart 2024
0 Reactie(s)

22 maart 2024

Vultr lanceert Cloud Inference om modelimplementatie te vereenvoudigen en AI-applicaties automatisch wereldwijd te schalen

Vultr kondigt de lance­ring aan van Vultr Cloud Inference. Dit server­loze platform is bedoeld om de schaal­baar­heid en het bereik van AI door wereld­wijde inzet van AI-modellen en AI-inferentie te verbe­teren. Door gebruik te maken van de wereld­wijde infra­struc­tuur van Vultr biedt Cloud Inference klanten schaal­baar­heid, een lagere latency en verbe­terde kosten­ef­fi­ci­ëntie voor hun AI-implementaties. 

Het snel veran­de­rende digitale landschap dwingt bedrijven om AI-modellen efficiënt te imple­men­teren en te beheren. Dit vergroot de vraag naar geopti­ma­li­seerde cloud­in­fra­struc­tuur voor wereld­wijde inferen­ties, terwijl organi­sa­ties zich meer richten op inferen­tie­kosten bij het in productie brengen van modellen. Dit brengt uitda­gingen met zich mee voor ontwik­ke­laars, die modellen moeten optima­li­seren voor verschil­lende regio’s en tegelij­ker­tijd zorgen voor hoge beschik­baar­heid en lage latenties. 

Met dat in gedachten heeft Vultr Cloud Inference gecre­ëerd. Vultr Cloud Inference versnelt de time-to-market van AI-gedreven functies, zoals voorspel­lende en real-time besluit­vor­ming, terwijl het een aantrek­ke­lijke gebrui­ker­s­er­va­ring biedt in verschil­lende regio’s. Gebrui­kers kunnen hun eigen model meebrengen, getraind op elk platform, in de cloud of op locatie, en het kan naadloos geïnte­greerd en ingezet worden op de wereld­wijde NVIDIA GPU-aange­dreven infra­struc­tuur van Vultr. Met speciale compute clusters die beschik­baar zijn op zes conti­nenten, zorgt Vultr Cloud Inference ervoor dat bedrijven kunnen voldoen aan lokale datasoe­ve­rei­ni­teit, data resid­ency en priva­cy­re­gel­ge­ving. Dit door hun AI-toepas­singen in te zetten in regio’s die in lijn zijn met wette­lijke vereisten en bedrijfsdoelstellingen. 

“Training biedt de basis voor AI om effec­tief te zijn, maar het is inferentie dat het poten­tieel van AI omzet in impact. Nu een toene­mend aantal AI-modellen van training naar productie overgaat, explo­deert het volume van inferentie workloads. Maar de meerder­heid van de AI-infra­struc­tuur is niet geopti­ma­li­seerd om aan de wereld­wijde inferen­tie­be­hoeften te voldoen”,zegt J.J. Kardwell, CEO van Vultr’s moeder­be­drijf Constant. “Met de lance­ring van Vultr Cloud Inference kunnen AI-innova­ties een maximale impact hebben door AI-imple­men­tatie te vereen­vou­digen en inferentie met lage latentie over de hele wereld te leveren via een platform dat is ontworpen voor schaal­baar­heid, effici­ëntie en wereld­wijd bereik.”

Vultr Cloud Inference biedt ongeë­ve­naarde impact, waaronder:

  • Flexi­bi­li­teit in AI-modelin­te­gratie en ‑migratie: Met Vultr Cloud Inference beschikken gebrui­kers over een ongecom­pli­ceerd, server­loos AI-inferen­tie­plat­form waarmee AI-modellen eenvoudig geïnte­greerd worden, ongeacht waar ze zijn getraind. Voor modellen ontwik­keld op Vultr Cloud GPU’s van NVIDIA, in het eigen datacenter van gebrui­kers of op een andere cloud, maakt Vultr Cloud Inference probleem­loze wereld­wijde inferentie mogelijk.
  • Minder complexe AI-infra­struc­tuur: Door gebruik te maken van de server­loze archi­tec­tuur van Vultr Cloud Inference kunnen bedrijven zich concen­treren op innovatie en het creëren van waarde via hun AI-initi­a­tieven in plaats van zich te richten op infra­struc­tuur­be­heer. Cloud Inference stroom­lijnt het imple­men­ta­tie­proces en maakt geavan­ceerde AI-mogelijk­heden toegan­ke­lijk voor bedrijven zonder uitge­breide in-house exper­tise in infra­struc­tuur­be­heer, waardoor de time-to-market voor AI-gedreven oplos­singen wordt versneld. 
  • Automa­tisch schalen van geopti­ma­li­seerde infra­struc­tuur voor inferentie: Door het realtime matchen van AI-appli­catie workloads en voor inferentie geopti­ma­li­seerde GPU’s in de cloud kunnen enginee­ring­teams naadloos presta­ties leveren en tegelij­ker­tijd zorgen voor het meest effici­ënte gebruik van resources. Dit leidt tot aanzien­lijke kosten­be­spa­ringen en minder impact op het milieu, omdat ze alleen betalen voor wat nodig is en gebruikt wordt.
  • Privé, toege­wijde compu­ter­mid­delen: Met Vultr Cloud Inference hebben bedrijven toegang tot een geïso­leerde omgeving voor gevoe­lige of veelei­sende workloads. Dit biedt verbe­terde bevei­li­ging en presta­ties voor kritieke appli­ca­ties, in lijn met doelen rond databe­scher­ming, naleving van regel­ge­ving en het handhaven van hoge presta­ties onder piekbelastingen.

“De vraag naar geavan­ceerde AI-techno­lo­gieën die AI-workloads wereld­wijd van energie kunnen voorzien, neemt snel toe”, zegt Matt McGrigg, director of global business devel­op­ment, cloud partners bij NVIDIA. “De intro­ductie van Vultr Cloud Inference stelt bedrijven in staat om AI-modellen die zijn getraind op de NVIDIA GPU-infra­struc­tuur naadloos te integreren en in te zetten, waardoor ze hun AI-toepas­singen wereld­wijd kunnen schalen.”

Redactie@DCpedia

Redactie@DCpedia

0 Reactie(s)

0 weergaven

0 Reactie(s)

0 reacties

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This