8 augustus 2024
0 Reactie(s)

8 augustus 2024

Vijf onverwachte voordelen van AI‑hallucinaties

Wanneer resul­taten van large language modellen (LLM’s) met valse of mislei­dende infor­matie toch als feiten worden gepre­sen­teerd, spreken we van een artifi­cial intel­li­gence-hallu­ci­natie. Hoewel dit in eerste instantie proble­ma­tisch lijkt, kunnen deze AI-hallu­ci­na­ties ook voordelen met zich meebrengen, zoals waarde­volle inzichten en innovaties. 

Wanneer is er sprake van een AI-hallucinatie?

Er is sprake van een AI-hallu­ci­natie als een AI-systeem een uitvoer genereert die niet overeen­komt met de werke­lijk­heid – het is incon­sis­tent, onjuist of onzinnig gezien de invoer. Bijvoor­beeld; je vraagt een AI-afbeel­dings­ge­ne­rator om een foto van een hond. Vervol­gens krijg je een rare verza­me­ling van dierlijke onder­delen. Dat is dan een hallu­ci­natie. Of als je een taalmodel een vraag stelt en het genereert vol vertrouwen een onjuist of onsamen­han­gend antwoord, dan is dat ook een hallucinatie.

Hallu­ci­na­ties variëren van subtiele onnauw­keu­rig­heden tot wilde fanta­sieën en ze zijn een grote zorg geworden voor veel mensen die overwegen AI in te zetten binnen hun organi­satie. Maar je kan het ook anders bekijken, en de zogenaamde AL-hallu­ci­na­ties niet als nadeel zien, maar als voordeel. 

1. Opval­lende creativiteit

AI-systemen zijn niet hetzelfde als tradi­ti­o­nele software. In software is er een lineaire, voorspel­bare relatie tussen input en output. De ontwik­ke­laar heeft de volle­dige controle. AI-systemen, met name neurale netwerken, hebben daaren­tegen een meer ondoor­zich­tige en complexe relatie tussen inputs en outputs. De ontwik­ke­laar traint het model en defini­eert de high-level archi­tec­tuur, maar de speci­fieke manieren waarop het model leert van het trainings­proces zijn vaak onverklaarbaar.

Zelfs experts zijn soms niet in staat om precies uit te leggen waarom een neuraal netwerk een bepaalde beslis­sing heeft genomen of een bepaalde output heeft geleverd. Er is een black box-element, waarbij het model zijn eigen repre­sen­ta­ties leert die niet altijd netjes overeen­komen met mense­lijke concepten. Dit is waar AI lijkt op mense­lijke creati­vi­teit. Net als de hersenen is een neuraal netwerk een ingewik­keld, gelaagd systeem dat tot nieuwe en verras­sende resul­taten kan komen door een complex samen­spel van aange­leerde patronen. Het is niet-lineair en wordt niet altijd volledig begrepen.

Als een AI hallu­ci­neert, vertoont hij creati­vi­teit en lateraal denken dat tot voor kort als puur mense­lijk werd beschouwd. Het legt onver­wachte verbanden, treedt buiten de gebaande  paden op een manier die tot verras­sende inzichten kan leiden. Deze verschui­ving van lineaire, voorspel­bare software naar niet-lineaire, onvoor­spel­bare AI is een interes­sante stap. Het daagt ons begrip van creati­vi­teit en intel­li­gentie uit. Het sugge­reert dat deze eigen­schappen misschien niet zo exclu­sief mense­lijk zijn als we dachten. We staan aan de vooravond van een nieuw tijdperk, waarin de grens tussen mense­lijke en machi­nale creati­vi­teit vervaagt. En dat is echt inspirerend.

2. Gelukkig toeval

De reali­teit van weten­schap­pe­lijke ontdek­kingen is vaak toevallig. Penicil­line werd bij toeval ontdekt toen Alexander Fleming merkte dat een vervuild petri­schaaltje een bacte­rie­do­dende schimmel bevatte. De magne­tron werd uitge­vonden nadat Percy Spencer merkte dat een radar magne­tron een choco­la­de­reep in zijn zak deed smelten. 

Het ‘hallu­ci­na­tie­pro­bleem’ van AI zorgt voor soort­ge­lijke ‘geluk­kige ongelukken’ en weten­schap­pe­lijke inzichten. Onder­zoe­kers van Stanford Medicine en McMaster Univer­sity creëerden een AI-model genaamd SyntheMol, dat razend­snel poten­tiële medicijn­struc­turen en recepten genereerde. De hallu­ci­na­ties van het model maakten het mogelijk om onbekende chemi­sche ruimtes te verkennen, wat resul­teerde in geheel nieuwe verbin­dingen. Zes van deze verbin­dingen bleken effec­tief tegen een resis­tente bacte­rie­stam, en twee ervan gingen door naar dierproeven. Deze innova­tieve aanpak zou kunnen helpen bij het ontdekken van behan­de­lingen voor andere antibi­o­tica-resis­tente infec­ties en ziekten zoals hartziekten.

Oftewel, door verras­sende verbanden te leggen, helpt AI ons los te komen van lineair denken en opent het nieuwe wegen voor innovatie. Bij het ontwik­kelen van deze systemen moeten we het poten­tieel van hallu­ci­na­ties omarmen als een bron van creatief inzicht en vooruitgang.

3. AI verbe­te­ringen

AI-hallu­ci­na­ties kunnen ons ook helpen verborgen uitda­gingen te identi­fi­ceren en aan te pakken. Denk aan afwij­kingen of bias in AI-systemen. Als een AI conse­quent hallu­ci­neert op een manier die stereo­typen of vooroor­delen weerspie­gelt, waarschuwt dit ontwik­ke­laars voor deze vooroor­delen in de trainings­ge­ge­vens of model­ar­chi­tec­tuur. Dit zet aan tot inspan­ningen om deze vooroor­delen te identi­fi­ceren en te beperken, wat leidt tot meer recht­vaar­dige AI-systemen. Zie hallu­ci­na­ties als een kanarie in de kolen­mijn, die waarschuwt voor problemen voordat ze diepge­wor­teld raken.

Ze kunnen ook hiaten of kwali­teits­pro­blemen in trainings­ge­ge­vens aan het licht brengen. Als een AI vaak hallu­ci­neert over bepaalde onder­werpen, kan dit erop wijzen dat de trainings­ge­ge­vens op deze gebieden tekort­schieten. Dit leidt tot inspan­ningen om uitge­brei­dere gegevens te verza­melen, waardoor de presta­ties van de AI verbe­teren. Hallu­ci­na­ties nodigen ons uit om de inner­lijke werking van AI te onder­zoeken, om in de zwarte doos te kijken en inzichten te verwerven.

4. Hallu­ci­na­ties en kwaliteitscontrole

Hallu­ci­na­ties herin­neren ons eraan dat AI niet onfeil­baar is en dat we niet zomaar de controle uit handen kunnen geven en foutloze resul­taten kunnen verwachten. In plaats daarvan onder­strepen hallu­ci­na­ties de noodzaak voor mensen om met AI samen te werken en er niet alleen op te vertrouwen.

Dit betekent dat we in elke fase goed moeten opletten. Bij het invoeren van gegevens moeten we rekening houden met mogelijke verte­ke­ningen of hiaten. Door ongebrui­ke­lijke reacties op te merken, de oorsprong ervan te achter­halen en ze te corri­geren, verfijnen en verbe­teren we de presta­ties van de AI. Verant­woord AI-gebruik betekent verant­woor­de­lijk­heid nemen voor toezicht en correctie. Het betekent de output van de AI in twijfel trekken, dieper graven als iets niet lijkt te kloppen en de resul­taten voort­du­rend verge­lijken met echte gegevens en mense­lijke exper­tise. Een AI hallu­ci­natie is dus eigen­lijk een ingebouwd mecha­nisme voor kwali­teits­con­trole en voort­du­rende verbetering.

5. Leren omgaan met AI

Door hallu­ci­na­ties te monitoren en te onder­zoeken, ontdekken we patronen in waar en hoe ze zich voordoen. Op deze manier dient een gedis­ci­pli­neerde benade­ring van hallu­ci­na­ties als een route­kaart die de meest veelbe­lo­vende wegen voor AI-ontwik­ke­ling en ‑toepas­sing markeert. Maar het reali­seren van dit poten­tieel vereist meer dan alleen techni­sche verfij­ningen. Het vereist een focus op training en verandermanagement.

Nu AI-tools steeds geavan­ceerder worden, moeten we mensen ook de vaardig­heden bijbrengen om er verant­woor­de­lijk en effec­tief mee om te gaan. Dit betekent inves­teren in training die niet alleen betrek­king heeft op mecha­nica, maar ook op kriti­sche denkvaar­dig­heden om de output te inter­pre­teren en erop te reageren.

Het betekent ook proac­tief omgaan met veran­de­ringen, antici­peren op organi­sa­to­ri­sche en psycho­lo­gi­sche belem­me­ringen en deze aanpakken. Dit kan betekenen dat je werkstromen moet herover­wegen, rollen opnieuw moet defini­ëren en onder­steu­ning moet bieden om mensen te helpen zich aan te passen aan een snel veran­de­rende wereld. Door ons te richten op deze mense­lijke elementen – training, cultuur en veran­der­ma­na­ge­ment – creëren we een omgeving waarin de gedis­ci­pli­neerde, gezamen­lijke benade­ring van AI-hallu­ci­na­ties gedijt. We stellen mensen in staat om actieve partners te worden bij het vormgeven van de toekomst van artifi­cial intel­li­gence. Dat is niet alleen een mooi streven, maar ook noodza­ke­lijk voor een nuttig en veilig gebruik van AI.

Arwen Vink

Arwen Vink

Arwen Vink is solution specialist bij SoftwareOne

0 Reactie(s)

30 weergaven

0 Reactie(s)

0 reacties

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Pin It on Pinterest

Share This