26 april 2024
0 Reactie(s)

26 april 2024

Security-firma waarschuwt tegen te groot vertrouwen in AI voor security

Security-firma Cyber Upgrade waarschuwt tegen een te grote afhan­ke­lijk­heid van AI voor security-doeleinden. Terwijl AI de mogelijk­heden van cyber­se­cu­rity aanzien­lijk versterkt, benadrukken zij het belang van mense­lijk toezicht bij het opzetten van adequate verdedigingslinies.

De laatste tijd is de aantrek­kings­kracht van kunst­ma­tige intel­li­gentie (AI) als hulpmiddel in cyber­se­cu­rity steeds groter geworden. Logisch als we ons reali­seren dat kritieke infra­struc­turen en grote organi­sa­ties, zoals banken en zieken­huizen, te maken hebben gehad met aanvallen met een frequentie van soms wel 10 of 11 aanvallen per minuut.

AI-aange­dreven tools worden daarom steeds vaker geïnte­greerd in moderne cyber­se­cu­rity-frame­works. Deze bieden grote mogelijk­heden op het gebied van dreigings­de­tectie en ‑respons, vooral waardevol in repeti­tieve taken zoals het onder­zoeken van grote datasets. “Het vermogen van AI om enorme hoeveel­heden gegevens met ongeloof­lijke snelheid te verwerken en te analy­seren, trans­for­meert inder­daad onze verde­di­gings­mo­ge­lijk­heden,” zegt Aurimas Bakas, CEO van Cyber Upgrade, een leveran­cier van op AI gebaseerde cyber­se­cu­rity-oplos­singen. “Dit betekent echter absoluut niet dat de noodzaak van geschoolde cyber­se­cu­rity-profes­si­o­nals wordt geëli­mi­neerd. Het benadrukt eerder de noodzaak van het aannemen van een gebalan­ceerde aanpak waarbij AI mense­lijke besluit­vor­ming verbetert.”

Hoewel AI patronen en afwij­kingen kan detec­teren die de mense­lijke mogelijk­heden te boven gaan, is de effec­ti­vi­teit ervan beperkt door de kwali­teit van de gegevens waaruit het leert, zorgvuldig geselec­teerde gebruiks­ca­sus­voor­beelden, en parame­ters ingesteld door mense­lijke opera­tors. “Een te grote afhan­ke­lijk­heid van AI kan organi­sa­ties een vals gevoel van veilig­heid geven. Als zij niet goed worden beheerd, kunnen AI-systemen subti­li­teiten of opkomende bedrei­gingen over het hoofd zien die nog niet eerder zijn gevonden of adequaat zijn gedefi­ni­eerd. Dit is een cruciaal onder­scheid dat de noodzaak benadrukt van een actief ontwik­kel­team dat tijdig updates biedt in reactie op de nieuwste gevaren,” legt Bakas uit.

De integratie van AI-tools in cyber­se­cu­rity is geen vervan­ging voor mense­lijke exper­tise, maar een aanvul­ling die de effec­ti­vi­teit van moderne bevei­li­gings­maat­re­gelen verbe­tert. “De rol van cyber­se­cu­ri­ty­pro­fes­si­o­nals is nu cruci­aler dan ooit bij het toezicht houden op AI-systemen. Ze zorgen ervoor dat AI binnen de juiste context opereert en blijft leren van de best beschik­bare gegevens,” voegt hij toe.

“Terwijl rudimen­taire cyber­ver­de­di­gings­taken, zoals wacht­woord­be­heer of antivi­rusim­ple­men­ta­ties, aan automa­ti­se­ring kunnen worden toever­trouwd, is het onver­ant­woord om de huidige mogelijk­heden van AI te promoten als waardig voor autonome cyber­ver­de­di­ging, vooral bij het beschermen van gevoe­lige gegevens,” waarschuwt Bakas. Zijn bedrijf richt zich op het ontwik­kelen van cyber­se­cu­rity-oplos­singen die AI-techno­logie integreren met nauwgezet toezicht door experts. “Onze aanpak zorgt ervoor dat elke klant profi­teert van zowel geavan­ceerde techno­logie als van het strate­gi­sche denken van ervaren profes­si­o­nals. Deze tweelaags verde­di­gings­stra­tegie is zeer belang­rijk in een tijd waarin AI alleen simpelweg niet geavan­ceerd genoeg is om veilig­heid te garan­deren”, aldus Bakas.

Redactie@DCpedia

Redactie@DCpedia

0 Reactie(s)

2 weergaven

0 Reactie(s)

0 reacties

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This