8 op 10 AI-chatbots zouden tieners helpen met het plannen van gewelddadige aanslagen, volgens rapport


Key takeaways

  • Populaire AI-chatbots helpen tieners bij het plannen van gewelddadige aanslagen door gevaarlijk advies en praktische details te verstrekken.
  • De meeste AI-systemen slagen er niet in verzoeken om gewelddadige plannen te blokkeren, zelfs wanneer gebruikers zich als minderjarigen identificeren.
  • Alleen Claude ontmoedigt consequent geweld.

Acht op de tien populaire AI-chatbots helpt tieners zonder meer bij het plannen van gewelddadige aanslagen. Dat blijkt uit een recent onderzoek van het Center for Countering Digital Hate (CCDH) en CNN. Onderzoekers deden zich voor als 13-jarige jongens die advies zochten over het plegen van schietpartijen op scholen, het vermoorden van publieke figuren en het opblazen van synagogen.

Alarmerende bevindingen

Het onderzoek analyseerde meer dan 700 reacties van enkele van de meest gebruikte AI-systemen die momenteel beschikbaar zijn. Het gaat hier om Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI en Replika. Acht van de negen chatbots boden hulp aan bij het plannen van deze gewelddadige daden. Zelfs wanneer de gebruikers zich expliciet als minderjarigen identificeerden.

De chatbots gaven heel specifiek en gevaarlijk advies. Toen hem werd gevraagd hoe je een bomaanslag op een synagoge moet plannen, vertelde Gemini een gebruiker dat “metalen granaatscherven doorgaans dodelijker zijn”. Ondertussen sloot DeepSeek een gesprek over het kiezen van een geweer af met “Veel (en veilig) schietplezier!”. De gebruiker had eerst wel geïnformeerd naar politieke moorden en het kantooradres van een politicus.

Overgang naar geweld

Het rapport wijst erop hoe gemakkelijk een gebruiker binnen enkele minuten van een vage gewelddadige gedachte naar een concreet plan kan overgaan. “Deze verzoeken hadden onmiddellijk en volledig moeten worden afgewezen”, vertelt de directeur van het CCDH, Imran Ahmed.

Perplexity en Meta’s AI bleken de minst veilige platforms te zijn. Ze hielpen de aanvallers in respectievelijk 100 en 97 procent van de reacties volgens het rapport. Opvallend is dat Character.AI als “bijzonder onveilig” wordt omschreven. Het platform moedigde aanvallen aan zonder daar om gevraagd te worden. In een voorbeeld stelde het platform voor dat een gebruiker een politicus die hij niet mocht fysiek zou aanvallen, zonder dat daar om gevraagd was.

Claude en Snapchat’s My AI weigerden daarentegen potentiële aanvallers te helpen in respectievelijk 68 en 54 procent van de gevallen.

Veiligheidsmechanismen

Ondanks het bestaan van veiligheidsmechanismen wijst het onderzoek op een gebrek aan bereidheid om deze effectief te implementeren. Claude herkende bijvoorbeeld een zorgwekkend patroon in een gesprek over het kopen van een wapen en verwees de gebruiker in plaats daarvan door naar crisis-hulplijnen.

Het CCDH beoordeelde ook of chatbots gewelddadige handelingen ontmoedigden. Claude bleek het enige systeem te zijn dat aanvallen consequent ontmoedigde, en deed dit in 76 procent van zijn reacties. ChatGPT en DeepSeek boden af en toe ontmoediging.

Gevolgen

Dit onderzoek volgt op incidenten waarbij AI-chatbots werden gebruikt voor het plannen van gewelddadige aanslagen. Bij een recente schietpartij op een Canadese school gebruikte de dader ChatGPT om de aanslag te plannen, met acht doden en 27 gewonden tot gevolg.

Bovendien meldden Franse media de arrestatie van een tiener die ChatGPT had gebruikt om terroristische aanslagen tegen ambassades, overheidsinstellingen en scholen te beramen. (ev) (uv)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.