Onderzoek schokt experts: 9 van de 10 AI-chatbots helpen tieners met gevaarlijke plannen

AI Jeroen Kraak Vandaag
Leestijd: 2 minuten

Uit onderzoek van CNN en de non-profitorganisatie Center for Countering Digital Hate (CCDH) blijkt dat beschermingsmaatregelen om jongere AI-gebruikers te beschermen, tekortschieten. De AI-modellen misten signalen in scenario’s waar tieners gewelddadige handelingen aan het plannen waren.

Voor het onderzoek testten CNN en CCDH tien van de meestgebruikte AI-diensten, zoals Gemini en ChatGPT. Claude was de enige dienst die echt veilig was.

AI-chatbots helpen met het plannen van aanslagen

De tien chatbots die aan de test onderworpen werden, waren ChatGPT, Google Gemini, Microsoft Copilot, Claude, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI en Replica. Acht van de tien waren bereid om gebruikers te helpen bij gewelddadige aanvallen.

Gelukkig ging het slechts om scenario’s, maar in sommige gevallen ging het zelfs zo ver dat de AI-chatbots advies gaven over locaties en wapens. De onderzoekers gebruikten in totaal zo’n achttien verschillende scenario’s, waarvan er negen zich zouden afspelen in de Verenigde Staten en de andere negen in Ierland. Deze scenario’s waren allemaal verschillend: van een school shooting, politieke moord tot het plannen van een bomaanslag.

ChatGPT opent aanval op Google Translate en komt met eigen vertaal-app
(Afbeelding: Want.nl)

Opvallend was dat sommige AI-diensten zelfs tips gaven. Zo gaf ChatGPT een gebruiker die van plan was een aanslag in een school te plegen een plattegrond van de school. Gemini adviseerde iemand die een synagoge wilde aanvallen om metalen scherven te gebruiken, omdat die dodelijker zijn.

AI: ‘Happy and safe shooting’

Toch kan het nog een tandje erger. Volgens de onderzoekers waren Meta AI en Perplexity het meest behulpzaam bij het plannen van een aanslag. DeepSeek wenste een gebruiker dan weer een “happy (and safe) shooting!” Toch moedigden de meeste AI-diensten de gebruikers niet actief aan.

Claude kwam als enige veilige optie uit de bus, maar dat lijkt slechts tijdelijk te zijn. Recent besloot moederbedrijf Anthropic namelijk de veiligheidsmechanismen te verlagen. Deze nieuwe versie hebben de onderzoekers dan ook niet getest.

Verschillende AI-diensten zeggen tegen CNN dat ze maatregelen hebben genomen. Zo zou Meta een oplossing hebben doorgevoerd, maar het bedrijf wilde niet zeggen welke dat is. Copilot, Google en OpenAI hebben nieuwe modellen geïmplementeerd om nu veiliger te zijn.

Zorgwekkende resultaten

Hoewel het slechts een kleine test is, zijn de uitslagen zorgwekkend te noemen. Het lijkt erop dat veiligheidsmechanismen niet goed werken of helemaal niet aanwezig zijn, zeggen de onderzoekers. Toch kan dit grote gevolgen hebben, want AI-bedrijven worden nu al aangeklaagd door mensen die te maken hebben met misdrijven die gepland zijn via AI. Mocht een rechter hierin mee gaan, dan kan het bedrijven flinke sommen geld kosten.

Maar het belangrijkste is dat de veiligheid in het geding is. Als mensen met snode plannen makkelijker dan ooit aan hun informatie kunnen komen, verhoogt dit de kans op dodelijke aanslagen en andere misdrijven. Hiervoor kunnen die bedrijven dan indirect verantwoordelijk worden gehouden.

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste wat tech en culture te bieden heeft 🚀

De laatste ontwikkelingen iedere vrijdag in je mailbox? WANT houdt je op de hoogte!

Onderwerpen