In de cyberwereld is AI een technologie met twee kanten: het kan gebruikt worden door aanvallers én door verdedigers. AI-tools helpen aanvallers om snel kwetsbaarheden te identificeren en te misbruiken. Cybercriminelen kunnen daarnaast hun aanvallen optimaliseren met AI-tools. Cybersecurityprofessionals gebruiken AI daarentegen om processen te automatiseren, analyses uit te voeren en dreigingen in een vroeg stadium op te sporen en te verhelpen. Organisaties die geen gebruiken maken van geavanceerde technologieën zoals AI, lopen het risico achterop te raken in de digitale wapenwedloop.
In de afgelopen jaren is de ontwikkeling van AI in een stroomversnelling gekomen en diep doordrongen in het bedrijfsleven en in onze samenleving. Wat we ons echter niet altijd beseffen, is dat AI al tientallen jaren wordt gebruikt in cybersecurity, aanvankelijk om afwijkende activiteiten te detecteren. Toch is de technologie nu onmisbaar geworden in veel sectoren en in ons dagelijks leven omdat het processen kan automatiseren en optimaliseren en doordat het enorme hoeveelheden data snel kan analyseren. Eén ding is echter nog steeds hetzelfde als in de begintijd van AI in de jaren 80: het kan nog steeds niet functioneren zonder menselijke tussenkomst – althans, nog niet. Dit betekent dat de inzet van AI afhankelijk is van menselijke intentie. En die menselijke intentie is helaas niet altijd ‘goed’.
Partners in crime: hoe AI aanvallers helpt
De ontwikkeling van Large Language Models (LLM’s) en generatieve AI gaat snel en de technologieën worden al op grote schaal gebruikt, ook bij cyberaanvallen. AI maakt het voor aanvallers makkelijker om malware te ontwikkelen, phishing-e-mails op te stellen en aanvallen te automatiseren. Als gevolg daarvan zijn de snelheid, het bereik en de verfijning van aanvallen aanzienlijk toegenomen. We hebben inmiddels het punt bereikt waarop phishing-e-mails en soortgelijke social engineering-tactieken niet langer eenvoudig te herkennen zijn.
Een paar jaar geleden waren phishing-e-mails vaak te herkennen doordat berichten volstonden met onhandige formuleringen en spelfouten. Bovendien werden er ongeloofwaardige verhalen gebruikt om ontvangers te misleiden en hen ertoe te verleiden op links te klikken of geld over te maken. Tegenwoordig is het herkennen van phishing-e-mails een stuk lastiger door het gebruik van AI. Daarmee kunnen cybercriminelen foutloze, gepersonaliseerde berichten en overtuigende phishing-e-mails opstellen. E‑mails kunnen nu afkomstig lijken van een legitiem persoon – zoals je baas – die je vraagt om een bijlage te bekijken, bankgegevens te wijzigen of transacties uit te voeren. Bovendien kunnen aanvallers nu zelfs audio en video van leidinggevenden of andere autoriteiten genereren – een bekend voorbeeld hiervan is de deepfake van Ali Niknam, de topman van Bunq. De dreiging van audiovisuele misleidingen nemen toe. Slechts een paar foto’s zijn nu voldoende om realistische deepfakes voor videogesprekken te maken, compleet met geïmiteerde stemmen en gezichten, of om misleidende beelden van politici te creëren om verwarring te zaaien en de publieke perceptie te manipuleren.
Een zorgwekkend recent voorbeeld betreft het vermeende gebruik van deepfakes van MarcoRubioviaSignal. Een aanvaller creëerde tekst- en audioberichten waarbij de Amerikaanse minister van Buitenlandse Zaken werd geïmiteerd en nam contact op met hooggeplaatste Amerikaanse politici en ministers van Buitenlandse Zaken van andere landen. Dit incident illustreert hoe cybercriminelen en politiek gemotiveerde actoren deepfakes kunnen gebruiken om de reputatie van politici te schaden, desinformatie te verspreiden en samenlevingen te destabiliseren. Het is daarom belangrijk om snel en betrouwbaar de authenticiteit van berichten te kunnen verifiëren.
Een intelligent schild: AI in cybersecurity
AI is echter niet alleen een nuttige technologie voor aanvallers; ook verdedigers kunnen – en moeten – zich wapenen met intelligente algoritmen. Cybersecurityprofessionals kunnen AI bijvoorbeeld gebruiken om deepfakes te herkennen doordat de technologie de verschillen tussen echte en valse identiteiten kan leren, inconsistenties in beeld- en videocontent kan identificeren – zoals glitches in gezichten – en andere afwijkingen in audio en video kan analyseren.
AI heeft echter nog meer voordelen op het gebied van cybersecurity. Machine Learning en LLM’s helpen securityteams door security-operaties te verbeteren, bijvoorbeeld door afwijkend gedrag te detecteren of dreigingen te analyseren. Een simpel voorbeeld: als een marketingmedewerker ineens toegang krijgt tot financiële gegevens die niet van belang zijn voor zijn werkzaamheden, wordt er een waarschuwing gegeven. Om dit soort afwijkend gedrag effectief te kunnen detecteren, moet AI voortdurend worden getraind met actuele data van medewerkers inclusief hun rollen.
In het geval van een security-incident kan AI ook helpen door aanbevelingen te doen op basis van eerdere incidenten en reacties. Deze aanbevelingen werken op dezelfde manier als bijvoorbeeld productsuggesties van Bol.com of Amazon, maar dan voor cybersecuritymaatregelen: “Securitymanagers die op soortgelijke incidenten hebben moeten reageren, hebben de volgende maatregelen genomen.” Hiermee kunnen IT-teams die slechts over beperkte cybersecurityexpertise beschikken toch adequaat reageren bij een incident.
Andere toepassingen voor AI zijn onder meer phishing- en malware-detectie, risk assessment en gebruikersbeheer. Vooral vulnerability management heeft baat bij innovatie op het gebied van AI, want AI kan bijvoorbeeld snel kwetsbaarheden detecteren, risico’s nauwkeurig inschatten en automatisch prioriteiten stellen. Dit wordt steeds belangrijker aangezien het aantal bekende kwetsbaarheden explosief is gestegen van ongeveer 6.500 in 2015 tot meer dan 40.000 in 2024. Een ander voordeel van AI in cybersecurity is betere interactie tussen mens en machine. LLM’s maken het mogelijk om in natuurlijke taal te communiceren met systemen in plaats van via complexe commando’s. Hiermee kunnen securityteams intuïtiever communiceren met IT-systemen – erg belangrijk voor teams zonder diepgaande kennis over cybersecurity.
AI in SOC
In het Security Operations Center (SOC) – het centrum voor securitymonitoring en ‑analyse – biedt AI nog meer mogelijkheden. Securityanalisten kunnen met behulp van AI rapporten in heldere taal genereren over dreigingen, op basis van forensische informatie die aan incidenten zijn gekoppeld. AI kan daarnaast waarschuwingen groeperen en categoriseren, waardoor incident response wordt gestroomlijnd.
Data bescherming – pas op voor collega ChatGPT
Ondanks al deze voordelen moeten medewerkers voorzichtig zijn bij het gebruik van LLM’s. Alle informatie die in een vrij beschikbare LLM, zoals ChatGPT, wordt ingevoerd, wordt toegevoegd aan de trainingsdatabase van dat AI-model. Dit betekent dat, zoals bij alle webservices, geüploade gegevens op een of andere manier worden gebruikt. In het geval van LLM wordt de ingevoerde informatie bijvoorbeeld beschikbaar gesteld aan andere gebruikers. Vertrouwelijke data mogen daarom nooit naar een openbare LLM worden gekopieerd. Hier geldt: als het gratis is, betaal je met je gegevens. Beheerders die hun volledige configuratie op ChatGPT zetten om ondersteuning te krijgen bij het oplossen van IT-problemen, zullen vroeg of laat ook de rekening hiervoor gepresenteerd krijgen.
Mensen blijven nodig
AI heeft zowel bij aanval als verdediging altijd menselijk toezicht nodig. Slimme algoritmen kunnen processen optimaliseren, analyses maken, ‘alert fatigue’ verminderen en acties voorstellen, maar de uiteindelijke beslissing blijft bij menselijke experts.
Synergie tussen mens en machine cruciaal voor effectieve cybersecurity
De cybersecurity-industrie wordt op dit moment al uitgedaagd door aanvallers die AI-technologieën gebruiken om bekende kwetsbaarheden te detecteren en te misbruiken. In de toekomst zal dit nog complexer worden: de volgende generatie AI-tools voor het detecteren van kwetsbaarheden zal volledig nieuwe aanvalsvectoren kunnen ontdekken middels verbeterde redeneervaardigheden – om nog maar te zwijgen over de voortdurende ontwikkeling in deepfakes. Het goede nieuws is echter dat alles wat vandaag en morgen wordt gebruikt door aanvallers, ook gebruikt kan worden door cybersecurityteams. Steeds meer bedrijven schakelen over op AI-gebaseerde securityoplossingen – voor data-analyse, detectie van dreigingen of geautomatiseerde incident response. Uit onderzoek naar de samenwerking tussen mens en AI blijkt dat 64% van de onderzochte IT-beslissers gelooft in het potentieel van AI om cybersecurity te verbeteren. Daarnaast beschouwt 45% AI als de centrale pijler van hun cybersecuritystrategie.
De toekomst van succesvolle cyberverdediging ligt in de strategische samenwerking tussen mens en machine. Wie beide op een slimme manier combineert, zal niet alleen dreigingen effectiever kunnen detecteren en afweren, maar is ook beter voorbereid op de
0 reacties