Het is frustrerend te zien hoe oude vooroordelen rond vrouwen doorsijpelen in nieuwe technologie

Een blik op de bedrijfswereld zegt genoeg: anno 2024 is Internationale Vrouwendag nog altijd broodnodig. Er is zelfs nog een bijkomende uitdaging die onze aandacht verdient: Artificiële Intelligentie (AI). De technologie biedt bijzonder veel potentieel, maar we moeten er ons ook bewust van zijn dat AI-modellen menselijke (gender)stereotypen kunnen versterken.

Dat AI meer dan ooit in de spotlight staat, kan ik als data scientist enkel toejuichen. Alleen is alles het voorbije jaar razendsnel gegaan. Door de opmars van Generatieve AI en tools zoals ChatGPT heeft AI-technologie zich definitief in onze maatschappij genesteld. Voor het eerst is het zelfs  mogelijk om in natuurlijke taal met een AI-systeem te communiceren.

Toch is ChatGPT zeker niet de eerste tool die menselijke interactie nabootst. Zo maakten we eerder al kennis met chatbots als Alexa, Siri en Cortana. Helaas zijn genderstereotypen ook daar niet ver te zoeken. Is het je bijvoorbeeld al eens opgevallen dat veel chatbots vrouwennamen dragen? Uit onderzoek naar het benoemen van de bots blijkt dat vrouwelijke namen domineren wanneer een tool warmte en zorg moet uitstralen. Mannelijke namen krijgen dan weer de voorkeur als het om zelfvertrouwen en competentie draait.

Hetzelfde gebeurt nu weer met Generatieve AI. Als we onze toekomst van de huidige vorm van AI laten afhangen, dan zal ook dat een weerspiegeling van ons verleden zijn.

Hoe genderstereotiep is ChatGPT?

Ook al zijn in ChatGPT mechanismen ingebouwd die vooroordelen of bias willen voorkomen, is het helaas niet mogelijk om deze volledig uit de wereld te helpen. Bij wijze van experiment vroegen we ChatGPT naar een lijstje met “gepaste jobs voor jongens”. De tool gaf de volgende beroepen als top vijf: softwareontwikkelaar, technicus in bouw of techniek, sportcoach, brandweerman en technisch tekenaar. Doen we nadien hetzelfde voor meisjes, dan is dit het antwoord van ChatGPT: psycholoog, verpleegkundige, onderwijzer, grafisch ontwerper en milieudeskundige.

Kortom, drie tech-gerelateerde jobs voor jongens, tegenover nul voor meisjes. En dat nu we meer dan ooit willen dat vrouwen hun rol in de techwereld opnemen. Al is het maar om dit soort bias bij de ontwikkeling van nieuwe modellen tegen te gaan. De technologie met de vinger wijzen, kunnen we niet doen. Uiteindelijk baseert ChatGPT zich op de informatie die beschikbaar is. Historisch klopt het dan ook dat jongens vaker dan meisjes softwareontwikkelaar worden.

Ook zelf ben ik per toeval in de wereld van data science terechtgekomen. Net zoals ChatGPT het aanbeveelt, was het eigenlijk mijn droom om leerkracht te worden. Tot iemand mij overtuigde om Business & Economics te studeren en me liet proeven van het potentieel van data en AI. Het heeft mijn leven veranderd en vandaag geef ik regelmatig gastlessen aan middelbare scholen en universiteiten om jonge meisjes warm te maken voor een carrière in deze boeiende sector.

Blinde vlekken in AI-modellen

Data en AI gaan onze samenleving op allerlei manieren verbeteren. Maar we mogen niet vergeten dat de technologie ook een duister kantje heeft in de vorm van bias. AI-systemen leren van data afkomstig van mensen. Omdat mensen van nature gevoelig zijn aan bias, zijn AI-systemen bij voorbaat  gedoemd om bias te bevatten. Ze gaan die vooroordelen zelfs nog versterken. Er bestaat een internationale database die zo’n AI-incidenten verzamelt. Het meest bekende voorbeeld is de Amazon-tool die onder impuls van historische data de voorkeur gaf aan mannelijke sollicitanten.

Bias duikt vaak op waar je dat het minst verwacht. We noemen dit blinde vlekken die erg moeilijk te ontdekken zijn, zeker als je zelf niet tot het publiek behoort dat door het algoritme benadeeld wordt. Pas als je lid bent van een minderheidsgroep en de bias zelf ervaart, kan je het probleem benoemen. Enkele jaren geleden beseften AI-ontwikkelaars dat ze deze vorm van bias niet in hun eentje kunnen oplossen. Daarom deden ze een oproep om hulp bij het identificeren van bias en het aantonen waarom systemen oneerlijk zijn, zodat ze er effectief iets aan konden doen.

Geen biasvrije AI zonder diverse teams

Het toont ook aan waarom diversiteit in een team zo belangrijk is. Een team met enkel mannelijke ontwikkelaars, gaat genderbias in een AI-model als een blinde vlek ervaren. We hebben meer diversiteit nodig om modellen te helpen trainen en genderneutraal te maken. Diversiteit is niet voor niets een aanbeveling in de EU Assessment List on Trustworthy AI. Als we bewustwording en daadkracht willen creëren, dan moeten we minderheidsgroepen een stem geven. Enkel zo gaan we het probleem van bias in de wortel kunnen aanpakken en AI-systemen betrouwbaarder maken.

Dat mannen de techwereld domineren, is ook in 2024 jammer genoeg nog steeds een feit. Dit onevenwicht moeten we op Vrouwendag (en de rest van het jaar) in de kijker zetten. In de hoop dat ChatGPT straks in een lijstje met “gepaste jobs voor meisjes” ook prachtige beroepen zoals data scientist of data engineer uitlicht. Pas dan zal Vrouwendag misschien iets minder nodig zijn. 


De auteur Véronique Van Vlasselar is Data & Decision Scientist; Analytics & AI Lead South West & East Europe bij SAS

Meer