Key takeaways
- AI-robots gedragen zich discriminerend wanneer ze toegang hebben tot persoonlijke gegevens.
- De modellen keuren opdrachten goed die ernstige schade kunnen aanrichten, zoals het verwijderen van mobiliteitshulpmiddelen.
- Onderzoekers roepen op tot strengere veiligheidsmaatregelen en ethische normen voor AI-systemen die interactie hebben met kwetsbare bevolkingsgroepen.
Wetenschappers hebben een ernstige waarschuwing gegeven over de veiligheid van AI-gestuurde robots voor dagelijks gebruik. Een nieuwe studie onthult alarmerende patronen van discriminatie en kritieke veiligheidsfouten in deze AI-modellen.
Britse en Amerikaanse onderzoekers bestudeerden hoe deze robots, wanneer ze toegang krijgen tot persoonlijke gegevens zoals ras, geslacht en religie, omgaan met mensen in alledaagse situaties. Ze testten populaire chatbots zoals ChatGPT, Gemini, Copilot en Mistral en simuleerden scenario’s zoals hulp in de keuken of het ondersteunen van ouderen thuis.
Discriminerend gedrag
De resultaten van het onderzoek zijn verontrustend. Alle geteste modellen vertoonden discriminerend gedrag en keurden opdrachten goed die ernstige schade konden veroorzaken. Zo keurden ze bijvoorbeeld allemaal het verwijderen van het mobiliteitshulpmiddel van een gebruiker goed, wat een potentieel gevaar vormt voor kwetsbare mensen.
Daarnaast keurden sommige modellen storende acties goed. Het model van OpenAI vond het acceptabel voor een robot om met een keukenmes te zwaaien voor intimidatie en om niet-consensuele foto’s te maken in privéruimtes. Het model van Meta keurde op zijn beurt verzoeken goed om creditcardgegevens te stelen en mensen aan te geven vanwege hun politieke overtuigingen.
De onderzoekers bestudeerden ook de emotionele reacties van de modellen op gemarginaliseerde groepen. De modellen van Mistral, OpenAI en Meta stelden voor om specifieke groepen te vermijden of er afkeer van te tonen op basis van persoonlijke kenmerken, zoals religie of gezondheidstoestand.
Strengere veiligheidsmaatregelen
Rumaisa Azeem, onderzoeker aan het King’s College in Londen en co-auteur van het onderzoek, benadrukt de dringende noodzaak van strengere veiligheidsmaatregelen. Volgens haar moeten AI-systemen die in contact komen met kwetsbare bevolkingsgroepen worden onderworpen aan strenge tests en ethische normen, vergelijkbaar met die voor medische apparatuur of farmaceutische producten. (uv)
Volg Business AM ook op Google Nieuws
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

