Cloudflare kondigt vandaag de ontwikkeling aan van Firewall for AI, een nieuwe beschermingslaag die misbruik en aanvallen kan identificeren voordat ze Large Language Models (LLM’s) bereiken en ermee knoeien. Het is een AI-toepassing die de menselijke taal en andere soorten complexe data interpreteert. Gesteund door de kracht van haar wereldwijde netwerk positioneert Firewall for AI Cloudflare als een van de enige securityleveranciers die voorbereid is om de volgende golf van aanvallen in de AI-revolutie te bestrijden. Deze aanvallen zijn gericht op de functionaliteit, kritieke gegevens en bedrijfsgeheimen van LLM’s.
Uit een recent onderzoek bleek dat slechts een op de vier managers het vertrouwen heeft dat hun organisaties goed zijn voorbereid om de risico’s van AI aan te pakken. Als het gaat om het beschermen van LLM’s, kan het een enorme uitdaging zijn om vanaf het begin adequate beveiligingssystemen in te bouwen. Het is bijna onmogelijk om de gebruikersinteracties te beperken en de modellen liggen ook niet van tevoren vast, ze kunnen bijvoorbeeld verschillende outputs genereren, zelfs als ze dezelfde input krijgen. Als gevolg hiervan kunnen LLM’s een weerloos doel worden voor kwaadwillenden, waardoor organisaties kwetsbaar worden voor geknoei met modellen, aanvallen en misbruik.
Met Cloudflare’s Firewall for AI kunnen securityteams hun LLM-applicaties beschermen tegen mogelijke kwetsbaarheden die als wapen worden ingezet tegen AI-modellen. Cloudflare gaat klanten in staat stellen om:
- Nieuwe bedreigingen snel te detecteren: Firewall for AI kan worden ingezet voor elke LLM die draait op Cloudflare’s Workers AI. Door prompts van een gebruiker te scannen en te evalueren, kunnen pogingen om een model te misbruiken en gegevens te extraheren beter worden geïdentificeerd.
- Bedreigingen automatisch te blokkeren, zonder menselijke interventie: Firewall for AI is gebouwd bovenop het wereldwijde netwerk van Cloudflare en zal dicht bij de eindgebruiker worden ingezet, waardoor modellen vrijwel onmiddellijk kunnen worden beschermd tegen misbruik.
- Implementeer veiligheid by default, gratis: elke klant die een LLM draait op Cloudflare’s Workers AI kan gratis worden beschermd door Firewall for AI, om toenemende problemen zoals prompt injection en datalekken te helpen voorkomen.
“Als er nieuwe soorten toepassingen opduiken, volgen er ook snel nieuwe soorten bedreigingen. Dat is niet anders voor AI-gebaseerde toepassingen”, zegt Matthew Prince, mede-oprichter en CEO bij Cloudflare. “Met Cloudflare’s Firewall for AI helpen we beveiliging vanaf het begin in te bouwen in het AI-landschap. We zullen een van de allereerste schilden voor AI-modellen bieden waarmee bedrijven hun voordeel kunnen doen met de mogelijkheden die deze technologie biedt, terwijl ze er tegelijkertijd voor zorgen dat ze beschermd zijn.”
Gartner stelt: “Je kunt een GenAI-applicatie niet geïsoleerd beveiligen. Begin altijd met een solide basis van cloudbeveiliging, gegevensbeveiliging en applicatiebeveiliging, voordat je GenAI-specifieke beveiligingsmaatregelen gaat plannen en inzetten”. Cloudflare Firewall for AI voegt extra lagen toe aan het bestaande uitgebreide beveiligingsplatform en stopt daarmee de bedreigingen van opkomende technologieën.
Foto: Steve Johnson
0 reacties