3 april 2024
0 Reactie(s)

3 april 2024

Cloudflare vereenvoudigt wereldwijde implementatie AI-toepassingen vanuit Hugging Face

Cloud­flare maakt bekend dat ontwik­ke­laars nu met één klik AI-toepas­singen kunnen inzetten op haar wereld­wijde netwerk, direct vanuit Hugging Face, het toonaan­ge­vende open platform voor AI-ontwik­ke­laars. Met de beschik­baar­heid van Workers AI, is Cloud­flare de eerste server­loze inferen­tie­partner die in de Hugging Face Hub is geïnte­greerd voor het inzetten van modellen. Hierdoor kunnen ontwik­ke­laars snel, eenvoudig en betaal­baar AI wereld­wijd inzetten, zonder infra­struc­tuur te beheren of te betalen voor ongebruikte rekencapaciteit. 

AI-toepassingen sneller implementeren

Ondanks de vooruit­gang op het gebied van AI-innovatie, is er nog steeds een kloof tussen het poten­tieel en de waarde die het bedrijven biedt. Organi­sa­ties en hun ontwik­ke­laars moeten snel en betaal­baar kunnen experi­men­teren en itereren, zonder dat ze GPU’s of infra­struc­tuur hoeven op te zetten, te beheren of te onder­houden. Bedrijven hebben behoefte aan een eenvoudig platform dat toegang geeft tot snelheid, bevei­li­ging, presta­ties, obser­veer­baar­heid en compli­ance, om innova­tieve, produc­tieklare appli­ca­ties sneller naar hun klanten te brengen.

Workers AI is beschikbaar met GPU’s in ruim 150 steden 

Workers AI is nu algemeen beschik­baar en biedt de ‘end-to-end’ infra­struc­tuur die nodig is om AI-modellen efficiënt en betaal­baar te schalen en in te zetten voor de volgende generatie AI-toepas­singen. Cloud­flare heeft GPU’s geïmple­men­teerd in ruim 150 steden wereld­wijd, onlangs nog in Kaapstad, Durban, Johan­nes­burg en Lagos voor de eerste locaties in Afrika, evenals Amman, Buenos Aires, Mexico City, Mumbai, New Delhi en Seoul. Deze maken AI-inference met lage latentie mogelijk in de hele wereld. Workers AI breidt zich ook uit om gefine­tu­nede modellen te onder­steunen, waardoor organi­sa­ties meer gespe­ci­a­li­seerde, domein­spe­ci­fieke toepas­singen kunnen ontwik­kelen en implementeren. 

Als aanvul­ling op Workers AI biedt Cloudflare’s AI Gateway een ‘control plane’ voor AI-appli­ca­ties, waarmee ontwik­ke­laars dynamisch verzoeken kunnen evalu­eren en routeren naar verschil­lende modellen en provi­ders. Dat stelt ontwik­ke­laars in staat data te gebruiken voor finetu­ning en deze workloads direct op het Workers AI-platform uit te voeren. 

“De popula­ri­teit van genera­tieve AI heeft ervoor gezorgd dat bedrijven in verschil­lende sectoren enorme hoeveel­heden tijd en geld inves­teren in AI. Sommige toepas­singen zullen werken, maar de grote uitda­ging van AI is dat de demo makke­lijk is, maar het in productie nemen is ongeloof­lijk complex”, zegt Matthew Prince, CEO en medeop­richter van Cloud­flare. “Wij kunnen dit oplossen door de kosten en complexi­teit van het ontwik­kelen van AI-apps weg te reduceren. Workers AI is een van de meest betaal­bare en toegan­ke­lijke oplos­singen om inferentie uit te voeren. Met Hugging Face en Cloud­flare die op één lijn zitten om AI op een eenvou­dige, betaal­bare manier te democra­ti­seren, geven we ontwik­ke­laars de vrijheid en flexi­bi­li­teit om een model te kiezen en hun AI-apps in een handom­draai van nul naar wereld­wijd te schalen.”

Cloudflare maakt implementatie met één klik vanuit Hugging Face mogelijk

Nu Workers AI algemeen beschik­baar is, kunnen ontwik­ke­laars AI-modellen met één klik direct vanuit Hugging Face imple­men­teren, voor de snelste manier om toegang te krijgen tot een verschei­den­heid aan modellen en inferentie-aanvragen uit te voeren op Cloudflare’s wereld­wijde netwerk van GPU’s. Ontwik­ke­laars kunnen een van de populaire open source-modellen kiezen en hoeven vervol­gens alleen maar te klikken op “Deploy to Cloud­flare Workers AI” om een model direct te kunnen gebruiken. Er zijn momen­teel 14 gecureerde Hugging Face-modellen geopti­ma­li­seerd voor Cloudflare’s wereld­wijde server­loze inferen­tie­plat­form, met onder­steu­ning voor drie verschil­lende taakca­te­go­rieën, waaronder tekst­ge­ne­ratie, inbed­dingen en zinsgelijkenis. 

“Wij zijn verheugd om AI samen met Cloud­flare toegan­ke­lijker te maken voor ontwik­ke­laars”, aldus Julien Chaumond, medeop­richter en chief techno­logy officer van Hugging Face. “Het aanbieden van de meest populaire open modellen met een server­loze API, aange­dreven door een wereld­wijde vloot van GPU’s, is een gewel­dige propo­sitie voor de Hugging Face commu­nity. Ik kan niet wachten om te zien wat ze ermee gaan ontwikkelen.”

AI-first bedrijven ontwikkelen met Workers AI

Bedrijven over de hele wereld vertrouwen op Workers AI en Cloudflare’s wereld­wijde netwerk voor hun AI-toepas­singen, waaronder: 

  • Talkmap helpt klanten om realtime conver­satie-infor­matie en ‑inzichten te ontdekken en zicht­baar te maken. Met miljoenen klant­ge­sprekken per dag en de behoefte aan een snelle doorloop­tijd voor CX & EX-uitkom­sten, heeft het ontwik­ke­laars­plat­form van Cloud­flare ons geholpen om de opslag­kosten en latentie laag te houden. Wij hebben voor Cloud­flare gekozen om ons te helpen onze genera­tieve AI-service te schalen en onze runtime-archi­tec­tuur te vereen­vou­digen, zodat we ons kunnen blijven richten op het toevoegen van klant­waarde voor conver­satie-inzichten in het contact­cen­trum.” – Jonathan Eisen­zopf, oprichter en Chief Strategy & Research Officer, Talkmap
  • Chain­Fuse trans­for­meert ongestruc­tu­reerde datachaos in bruik­bare inzichten en zorgt ervoor dat elk stukje feedback van klanten, elk probleem en elke kans wordt gehoord en gewaar­deerd. Met behulp van producten als Workers AI, AI Gateway en Vecto­rize hebben we met succes al ruim 50.000 unieke conver­sa­ties geana­ly­seerd en gecate­go­ri­seerd vanuit plaatsen als Discord, Discourse, Twitter, G2 en meer. Toegang hebben tot 28 AI-modellen voor elke taak, en de mogelijk­heid om ze tussen­door te verwis­selen, stelt ons in staat om op grote schaal accuraat en efficiënt te zijn.” – George Portillo, co-founder, Chain​Fuse​.com.
  • Discourse​.org is een modern, open-source discus­sie­plat­form dat meer dan 20.000 online commu­ni­ties onder­steunt, van kleine hobby­groepen tot forums voor enkele van de grootste bedrijven ter wereld. Discourse maakt gebruik van Cloudflare’s Workers AI om embed­dingd­mo­dellen uit te voeren voor onze populaire functie ‘Gerela­teerde onder­werpen’. Dit levert relevante resul­taten op binnen commu­ni­ties, waardoor commu­ni­ty­leden nieuwe mogelijk­heden krijgen om onder­werpen waarin ze geïnte­res­seerd zijn te vinden en zich daarmee bezig te houden. Workers AI is momen­teel een van de betaal­bare, open-source manieren waarop we aanver­wante onder­werpen kunnen aanbieden met behulp van een goed preste­rend embed­dings­model om onze klanten een manier te bieden om hun commu­ni­ty­leden een nieuwe manier te bieden om relevan­tere content te ontdekken en de betrok­ken­heid te verbe­teren.” – Saif Murtaza, AI Product Manager, Discourse​.org
  • Simmer brengt het swipen van dating-apps naar de recepten- en kookwe­reld, om koppels samen te brengen tijdens een maaltijd die ze allebei lekker vinden. Simmer heeft voort­du­rend Cloud­flare-producten geadop­teerd naarmate het platform is uitge­breid en Workers AI was daarop geen uitzon­de­ring. Wij gebruiken Workers AI embed­dings en grote taalmo­dellen, zoals Mistral 7B, om ons te helpen een geper­so­na­li­seerde ervaring te creëren voor gebrui­kers op de app, inclu­sief gecureerde recepten op basis van voorkeuren. We gaan eerst naar Cloud­flare om te onder­zoeken of hun producten passen bij onze use case, omdat ze zo eenvoudig zijn om mee te werken. Het gebruik van Cloud­flare-producten helpt ons ook om veel kosten te besparen terwijl we onze startup laten groeien.” – Ben Ankiel, CTO, Simmer
  • Audio­f­lare gebruikt AI om korte audio­be­standen te conver­teren, te inspec­teren, samen te vatten en te vertalen naar verschil­lende talen. We rekenen sterk op Workers AI voor het stroom­lijnen van AI-gerela­teerde taken, waaronder het verwerken van audio­be­standen, senti­men­te­va­lu­atie, taalver­ta­ling en het onder­houden van de algehele effici­ëntie en betrouw­baar­heid van AI. We zijn onder de indruk van Cloudflare’s vermogen om de backend van onze app te vereen­vou­digen. Wij geloven in de consis­tente verbe­te­ringen en toewij­ding van Cloud­flare en hebben er vertrouwen in dat we met hun platform kunnen groeien.” – Sean Oliver, creator of the open-source LLM reposi­tory, Audioflare

0 Reactie(s)

0 reacties

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Huidige abonnees: 35

Pin It on Pinterest

Share This