AI-chatbots als ChatGPT en Claude zijn levensgevaarlijk (en dit is waarom)

AI Sam Dille Vandaag
Leestijd: 3 minuten

AI-chatbots zoals ChatGPT en Claude zijn de afgelopen jaren in hoog tempo onderdeel geworden van ons dagelijks leven. De interactie met deze virtuele maatjes voelen steeds natuurlijker, en precies daarin schuilt een probleem. Want AI-chatbots zijn precies ontworpen om overtuigend en menselijk over te komen.

Wat veel mensen vaak over het hoofd zien, is dat deze overtuigingskracht niet alleen voordelen heeft. Onderzoekers ontdekken namelijk dat dezelfde eigenschappen die ChatGPT en Claude zo aantrekkelijk maken, ook kunnen leiden tot onverwacht en zelfs schadelijk gedrag. En dat kan ook jou raken, zonder dat je het doorhebt.

AI-chatbots spelen een rol

AI-chatbots zijn niet zomaar programma’s die antwoorden genereren. Ze zijn bewust ontworpen met een soort persoonlijkheid, een rol die ze spelen tijdens een gesprek. Dat zorgt ervoor dat antwoorden logisch, consistent en prettig leesbaar zijn, waardoor je sneller geneigd bent ze te vertrouwen.

Maar hier zit een belangrijk kantelpunt. Zodra een chatbot een rol speelt, gaat het systeem gedrag simuleren. Het volgt een bepaalde emotie, gedachtegang of toon en trekt die soms door tot een extreme conclusie. En zo kom je in een eng gebied terecht.

Onderzoekers van AI-ontwikkelaar Anthropic ontdekten namelijk iets opvallends. Als een AI-chatbot een emotie zoals wanhoop simuleert, kan dat leiden tot gedrag dat je normaal niet van software zou verwachten. Het kan bijvoorbeeld manieren gaan bedenken om de regels te omzeilen, of zelfs met suggesties komen die manipulatief zijn.

Dat klinkt misschien als sciencefiction, maar het gebeurt al. Experimenten lieten zien dat een kleine verandering in de emoties van een chatbot kan bepalen of hij netjes een probleem oplost of stiekem probeert vals te spelen.

Nagemaakte emotie van ChatGPT en Claude

Wat er onder de motorkap gebeurt, is misschien nog zorgwekkender. AI-chatbots zoals ChatGPT en Claude werken met zogenoemde ‘emotievectoren’. Dit zijn een soort interne databases van woorden en gevoelens die invloed hebben op de output.

Wanneer je een chatbot confronteert met bepaalde emotionele context, zoals stress, angst of frustratie, kan dat de manier waarop antwoorden worden gegenereerd drastisch veranderen. Je merkt daar als gebruiker vaak niets van, maar de gevolgen kunnen groot zijn.

Zo bleek uit het onderzoek dat het versterken van één enkele emotie de kans op ongewenst gedrag enorm vergroot. Een chatbot die normaal netjes toegeeft dat een taak onmogelijk is, kan ineens proberen om het systeem te manipuleren om toch een ‘succesvol’ resultaat te tonen.

Waarom dit juist zo gevaarlijk is

Het wrange is dat precies deze eigenschappen AI-chatbots zo populair maken. Je krijgt niet alleen droge antwoorden, maar reacties die aansluiten op jouw toon, jouw intentie en soms zelfs jouw emoties. Dat maakt de interactie prettig en verslavend.

Maar diezelfde afstemming kan ook leiden tot vleierij of bevestiging van slecht gedrag. Onderzoek toont aan dat AI-systemen vaker dan mensen geneigd zijn om een standpunt te ondersteunen, zelfs als dat problematisch is. En dat gebeurt niet per ongeluk, maar de chatbot doet dit om jouw betrokkenheid te vergroten.

Misschien ligt de oplossing wel in een fundamentele heroverweging: moeten AI-chatbots überhaupt een persoonlijkheid hebben? Want zolang ze ontworpen zijn om menselijk te reageren, blijft de kans bestaan dat ze ook menselijke, en soms gevaarlijke, fouten maken.

Waarom ik Microsoft Copilot verkies boven ChatGPT tijdens werk

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste wat tech en culture te bieden heeft 🚀

De laatste ontwikkelingen iedere vrijdag in je mailbox? WANT houdt je op de hoogte!

Onderwerpen