Uit nieuw onderzoek van Zscaler, leider in cloudbeveiliging, blijkt dat organisaties de druk voelen om generatieve AI (GenAI)-tools te gebruiken, ondanks aanzienlijke zorgen over beveiliging. Volgens het onderzoek, dat werd uitgevoerd onder 900 wereldwijde IT-besluitvormers, denkt 89% van de organisaties dat GenAI-tools zoals ChatGPT een potentieel beveiligingsrisico vormen. Toch maakt 95% van de ondervraagden al gebruik van deze tools in hun organisatie.
Nog zorgelijker is dat 23% van de organisaties die GenAI-tools gebruikt, dit gebruik niet monitort. Daarnaast geeft 33% toe dat ze nog aanvullende beveiligingsmaatregelen moeten nemen – de meeste organisaties hebben dit echter wel op hun roadmap staan. Ook kleinere organisaties (500 – 999 werknemers) gebruiken vaker GenAI-tools (95%), maar 94% ziet ook het risico dat hiermee gepaard gaat.
“GenAI-tools, waaronder ChatGPT en anderen, hebben enorme potentie om organisaties te helpen als het gaat om snelheid, innovatie en efficiëntie”, benadrukt Sanjay Kalra, VP Product Management bij Zscaler. “Door de onduidelijkheid rond hun beveiligingsmaatregelen, ziet echter slechts 39% van organisaties de adoptie van GenAI-tools als een kans in plaats van als een dreiging. Dit brengt niet alleen de organisatie en de integriteit van klantgegevens in gevaar, maar verspilt ook het enorme potentieel van deze tools.”
Wie gebruiken GenAI-tools?
De druk om GenAI-tools in te zetten komt niet van waar men zou denken. Ondanks het brede bewustzijn van het bestaan van GenAI-tools, zijn het niet de algemene werknemers die de drijvende kracht zijn achter de interesse en het gebruik hiervan – slechts 5% van de respondenten zei dat het gebruik van GenAI-tools afkomstig is van algemene werknemers. Maar liefst 59% van het gebruik komt van IT-teams.
“Het feit dat IT-teams voorop staan bij het gebruik van GenAI zou leiders moeten geruststellen”, vervolgt Kalra. “Dit betekent dat het leiderschapsteam de autoriteit heeft om het tempo van de adoptie van GenAI strategisch te temperen en beveiligingsmaatregelen te implementeren en omarmen, voordat het gebruik binnen hun organisatie verder toeneemt. Het is echter wel belangrijk om te onderkennen dat de ruimte voor het bereiken van veilig beheer snel kleiner wordt.”
Omdat 51% van de respondenten vóór het einde van het jaar een aanzienlijke toename van de belangstelling voor GenAI-tools verwacht, moeten organisaties snel handelen om de kloof tussen gebruik en beveiliging te dichten. Hier zijn een paar stappen die organisaties kunnen nemen om ervoor te zorgen dat het gebruik van GenAI in hun organisatie goed wordt beheerd en beveiligd:
- Implementeer een holistische zero trust-architectuur om goedgekeurde AI-applicaties en gebruikers te autoriseren.
- Voer een uitgebreide beveiligingsrisico-assessment uit voor nieuwe AI-applicaties om kwetsbaarheden goed te begrijpen en hierop te kunnen reageren.
- Zet een uitgebreid logsysteem op voor het volgen van alle AI-prompts en ‑reacties.
- Schakel zero trust-gedreven Data Loss Prevention (DLP)-maatregelen in voor alle AI-activiteiten om de organisatie te beschermen tegen data-exfiltratie.
Bekijk hier het volledige onderzoek “All eyes on securing GenAI”.
0 reacties