6 maart 2024
0 Reactie(s)

6 maart 2024

Cloudflare Firewall for AI voor beveiliging AI-toepassingen

 Cloud­flare kondigt vandaag de ontwik­ke­ling aan van Firewall for AI, een nieuwe bescher­mings­laag die misbruik en aanvallen kan identi­fi­ceren voordat ze Large Language Models (LLM’s) bereiken en ermee knoeien. Het is een AI-toepas­sing die de mense­lijke taal en andere soorten complexe data inter­pre­teert. Gesteund door de kracht van haar wereld­wijde netwerk positi­o­neert Firewall for AI Cloud­flare als een van de enige securi­ty­le­ve­ran­ciers die voorbe­reid is om de volgende golf van aanvallen in de AI-revolutie te bestrijden. Deze aanvallen zijn gericht op de functi­o­na­li­teit, kritieke gegevens en bedrijfs­ge­heimen van LLM’s.

Uit een recent onder­zoek bleek dat slechts een op de vier managers het vertrouwen heeft dat hun organi­sa­ties goed zijn voorbe­reid om de risico’s van AI aan te pakken. Als het gaat om het beschermen van LLM’s, kan het een enorme uitda­ging zijn om vanaf het begin adequate bevei­li­gings­sys­temen in te bouwen. Het is bijna onmoge­lijk om de gebrui­kers­in­ter­ac­ties te beperken en de modellen liggen ook niet van tevoren vast, ze kunnen bijvoor­beeld verschil­lende outputs genereren, zelfs als ze dezelfde input krijgen. Als gevolg hiervan kunnen LLM’s een weerloos doel worden voor kwaad­wil­lenden, waardoor organi­sa­ties kwets­baar worden voor geknoei met modellen, aanvallen en misbruik. 

Met Cloudflare’s Firewall for AI kunnen securi­ty­teams hun LLM-appli­ca­ties beschermen tegen mogelijke kwets­baar­heden die als wapen worden ingezet tegen AI-modellen. Cloud­flare gaat klanten in staat stellen om:

  • Nieuwe bedrei­gingen snel te detec­teren: Firewall for AI kan worden ingezet voor elke LLM die draait op Cloudflare’s Workers AI. Door prompts van een gebruiker te scannen en te evalu­eren, kunnen pogingen om een model te misbruiken en gegevens te extra­heren beter worden geïdentificeerd. 
  • Bedrei­gingen automa­tisch te blokkeren, zonder mense­lijke inter­ventie: Firewall for AI is gebouwd bovenop het wereld­wijde netwerk van Cloud­flare en zal dicht bij de eindge­bruiker worden ingezet, waardoor modellen vrijwel onmid­del­lijk kunnen worden beschermd tegen misbruik. 
  • Imple­men­teer veilig­heid by default, gratis: elke klant die een LLM draait op Cloudflare’s Workers AI kan gratis worden beschermd door Firewall for AI, om toene­mende problemen zoals prompt injec­tion en datalekken te helpen voorkomen.

“Als er nieuwe soorten toepas­singen opduiken, volgen er ook snel nieuwe soorten bedrei­gingen. Dat is niet anders voor AI-gebaseerde toepas­singen”, zegt Matthew Prince, mede-oprichter en CEO bij Cloud­flare. “Met Cloudflare’s Firewall for AI helpen we bevei­li­ging vanaf het begin in te bouwen in het AI-landschap. We zullen een van de aller­eerste schilden voor AI-modellen bieden waarmee bedrijven hun voordeel kunnen doen met de mogelijk­heden die deze techno­logie biedt, terwijl ze er tegelij­ker­tijd voor zorgen dat ze beschermd zijn.”

Gartner stelt: “Je kunt een GenAI-appli­catie niet geïso­leerd bevei­ligen. Begin altijd met een solide basis van cloud­be­vei­li­ging, gegevens­be­vei­li­ging en appli­ca­tie­be­vei­li­ging, voordat je GenAI-speci­fieke bevei­li­gings­maat­re­gelen gaat plannen en inzetten”. Cloud­flare Firewall for AI voegt extra lagen toe aan het bestaande uitge­breide bevei­li­gings­plat­form en stopt daarmee de bedrei­gingen van opkomende technologieën.

Foto: Steve Johnson

Redactie@DCpedia

Redactie@DCpedia

0 Reactie(s)

0 weergaven

0 Reactie(s)

0 reacties

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This