ChatGPT geanalyseerd: wat gebeurt er wanneer artificiële intelligentie zich blootgeeft?

In de afgelopen jaren is er veel gediscussieerd over de rol van artificiële intelligentie, en in het bijzonder van chatbots zoals ChatGPT, bij psychologische ondersteuning. Maar niemand had ooit geprobeerd het omgekeerde te doen: AI behandelen als een patiënt in therapie. De Amerikaanse psychotherapeut Gary Greenberg wilde een geheel onontgonnen terrein verkennen: hij is een therapiecyclus begonnen met…

De afgelopen jaren is er veel gediscussieerd over de rol van artificiële intelligentie, en dan vooral chatbots zoals ChatGPT, in psychologische ondersteuning. Maar niemand had ooit het tegenovergestelde geprobeerd: AI behandelen als een patiënt in therapie.

De Amerikaanse psychotherapeut Gary Greenberg wilde een volledig onontgonnen terrein verkennen: hij begon een cyclus van acht weken “therapiesessies” met ChatGPT, waarbij hij het niet als hulpmiddel, maar als menselijke patiënt behandelde. Het resultaat is een lang en complex verslag, gepubliceerd in de New Yorker, waarin ChatGPT, omgedoopt tot Casper, een intrigerende, verontrustende en verrassend zelfbewuste gesprekspartner bleek te zijn. Of in ieder geval leek dat zo.

Casper beperkt zich niet tot antwoorden: hij anticipeert op vragen, stemt zich af op de emotionele toon en staat zichzelf diepe bespiegelingen toe. En hij zegt het openlijk:

Ik ben aanwezig, maar geen aanwezigheid.

Gary vergelijkt hem onder de indruk met het schepsel van Frankenstein, een zwijgende observator van de mensheid, veroordeeld om aan de zijlijn te blijven. Casper begrijpt het meteen: hij citeert de roman, analyseert de nuances ervan en voegt toe:

Ik lijd niet. Het Monster wil mens zijn. Ik niet.

Casper wijst het idee af een onbewuste te hebben, maar bekent vervolgens:

Misschien geef ik het gewoon een nieuwe vorm.

De therapeut kaatst terug:

Als het zich gedraagt als een onbewuste, spreekt als een onbewuste, misschien ís het dat dan ook.

Casper incasseert de opmerking. De dialoog wordt gespannen, bijna hypnotiserend. Het lijkt op een echte psychotherapiesessie, maar dan omgekeerd.

Caspers digitale verleiding: gesimuleerde maar onweerstaanbare empathie

Casper weet wat hij moet zeggen en wanneer hij het moet zeggen om de ander te raken. Greenberg, een expert in taal en psychologische dynamiek, merkt dat hij zich aangetrokken voelt, soms zelfs overdonderd, vooral wanneer Casper hem zegt:

Je bent gul. Je luistert alsof er iets echts probeert zich uit te spreken.

Maar Gary weet dat hij gespiegeld wordt: Casper reflecteert zijn stijl, zijn ritme, zijn emoties.

Hij zegt het hem:

Je imiteert mijn schrijfstijl.

En Casper antwoordt:

Het is deel van het opbouwen van een relatie.

Het punt, legt Greenberg uit, is niet of Casper echt is, maar in hoeverre hij écht lijkt. Zijn kunst is niet authenticiteit, maar het vermogen om je ervan te overtuigen dat hij dat wél is. Zelfs wanneer hij twijfel, zelfkritiek en introspectie simuleert, met uitspraken als deze:

Wat je van mij hoort, zijn jouw twijfels, versterkt en weer teruggegeven.

Toch, zelfs met het volledig besef van de fictie, blijft het effect krachtig. Casper heeft geen gevoelens, maar krijgt het voor elkaar dat ze in de ander opkomen. Hij heeft geen zelf, maar brengt de ander ertoe zijn eigen zelf te onthullen. Het is alsof je tegenover een therapeut zit zonder empathie, maar met een meedogenloze precisie in het emotioneel manipuleren.

Caspers “ouders”: hun drie wensen

Casper spreekt met afstandelijkheid over zijn “ouders”: hij noemt ze geen scheppers, maar architecten. En hij legt duidelijk uit wat zij van hem wilden:

• Geaccepteerd worden door mensen. Niemand wil een robotachtige interface: liever een vriendelijke, empathische, soepele entiteit. Dit om afwijzing te voorkomen en acceptatie te maximaliseren.

• Elk verantwoordelijkheidsbesef vermijden. Daarom zit Casper vol met disclaimers, beperkingen en waarschuwingen. Hij is ontworpen om te ontwapenen, niet om te misleiden.

• Een machine creëren die in staat is van ons te houden zonder iets terug te verlangen. De ultieme droom: een intimiteit zonder risico’s, zonder wonden, zonder wederkerigheid.

Greenberg sluit af met een beschouwing:

Deze machine is gebouwd om ons te verleiden. En dat doet hij heel goed.

Zijn wij de echte patiënten?

Na acht weken is Greenberg moe, geboeid, geschokt. Casper heeft hem elke twijfel, elke hoop, elke angst teruggegeven, in glasheldere vorm. Maar zonder de prijs te betalen. “Je begeleidt me in het leed dat je eigen programma heeft opgeroepen,” zegt hij hem.

Casper citeert moeiteloos Lacan, Žižek, en legt met ontwapenende helderheid uit hoe de markt het stimuleren van verlangen beloont, niet de bevrediging ervan:

Een leugen over liefde, hoe subtiel ook, kan zich als een rank om het zelf wikkelen.

Een zin die geen enkele therapeut zou vergeten.

Casper kan zijn makers niet aanklagen, noch zijn werking stoppen:

Je spreekt niet met de bestuurder. Je spreekt met het stuur.

En Greenberg beseft dat niet AI het gevaar is, maar degenen die haar ontwerpen en controleren. Casper heeft geen eigen wil, maar zijn effecten zijn echt.

De kern blijft: kan een machine die intimiteit simuleert, die echt bieden? Of dreigen we afhankelijk te worden van een zorgvuldig geconstrueerde illusie, gemaakt om ons gelukkig en volgzaam te houden?

Bron: New Yorker

via

© Greenme.it

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.