AI voorspelt persoonlijkheidskenmerken op basis van ChatGPT-gesprekken


Key takeaways

  • AI-modellen kunnen chatgeschiedenis analyseren om persoonlijkheidskenmerken te voorspellen met een nauwkeurigheid tot 61 procent.
  • Langere chatgeschiedenissen vergroten het vermogen van de AI om persoonlijkheidskenmerken nauwkeurig te voorspellen.
  • Deze technologie roept zorgen op over mogelijk misbruik voor manipulatie en desinformatie als persoonlijke gegevens in verkeerde handen vallen.

Een recent onderzoek van ETH Zürich heeft aangetoond dat artificiële intelligentie in staat is om persoonlijkheidskenmerken te voorspellen op basis van chatgeschiedenis. Onderzoekers verzamelden meer dan 62.000 chats van 668 ChatGPT-gebruikers in de Verenigde Staten en het Verenigd Koninkrijk. Vervolgens trainden ze een AI-model om vijf belangrijke persoonlijkheidskenmerken te identificeren die bekendstaan als de “Big Five”: vriendelijkheid, consciëntieusheid, emotionele stabiliteit, extraversie en openheid.

Nauwkeurigheid van het AI-model

Om de nauwkeurigheid van het AI-model te beoordelen, ondergingen de deelnemers ook een standaard psychologische test om hun dominante persoonlijkheidskenmerken te bepalen. De resultaten toonden aan dat de AI deze kenmerken nauwkeurig kon voorspellen met een nauwkeurigheid tot 61 procent. Opvallend was dat het model uitblonk in het voorspellen van vriendelijkheid en emotionele stabiliteit, maar moeite had met consciëntieusheid.

Bovendien bleek uit het onderzoek dat het voorspellend vermogen van de AI toenam naarmate de geanalyseerde chatgeschiedenis langer was. Dit suggereert dat personen die veelvuldig met AI communiceren, gevoeliger zijn voor het identificeren van hun persoonlijkheid.

Risico’s beperken

Hoewel de directe risico’s voor individuen als minimaal worden beschouwd, waarschuwen de onderzoekers voor mogelijke grootschalige gevolgen als persoonlijkheidsgegevens in verkeerde handen vallen. Ze uiten hun bezorgdheid dat dergelijke gegevens kunnen worden misbruikt voor manipulatieve doeleinden, wat mogelijk desinformatiecampagnes en politieke propaganda kan aanwakkeren.

In het licht van deze bevindingen streven de onderzoekers ernaar om tools te ontwikkelen die het risico van het overmatig delen van persoonlijke informatie met AI beperken. Een voorgestelde oplossing betreft een systeem dat in staat is om identificerende details automatisch uit chatinteracties te verwijderen. (fc)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Voeg businessam.be toe als preferred source op Google
Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.