“Poverty porn”: AI-gegenereerde beelden van extreme armoede worden populairder bij hulporganisaties


Key takeaways

  • AI-gegenereerde beelden van extreme armoede worden steeds populairder bij hulporganisaties en NGO’s op het gebied van gezondheid.
  • Deze beelden bestendigen schadelijke stereotypen door scènes af te beelden van ondervoede kinderen, gebarsten aarde en slachtoffers van seksueel geweld.
  • Critici beweren dat het gebruik van gefabriceerde beelden voor wereldwijde gezondheidscommunicatie ethische vragen oproept over het bestendigen van vooroordelen en het vervormen van het begrip van armoede bij het publiek.

Het gebruik van door AI gegenereerde beelden van extreme armoede wordt steeds gebruikelijker bij hulporganisaties en NGO’s op het gebied van gezondheid, waardoor bezorgdheid ontstaat over de opleving van “poverty porn”. Deze beelden houden vaak schadelijke stereotypen in stand door scènes te tonen van ondervoede kinderen, gebarsten aarde en slachtoffers van seksueel geweld. Zo blijkt uit een nieuwe studie.

Bevestiging van stereotypen

De onderzoekers ontdekten een aanzienlijke toename in de beschikbaarheid van deze door AI gegenereerde afbeeldingen op de populairste stockfotowebsites. Deze afbeeldingen zijn gemakkelijk en tegen lage kosten aan te schaffen, wat aantrekkelijk is voor organisaties met een beperkt budget. Het gemak en de betaalbaarheid van het genereren van AI-afbeeldingen draagt bij aan de toenemende populariteit ervan. Organisaties kunnen de complexiteit en ethische overwegingen omzeilen die gepaard gaan met het gebruik van echte foto’s, zoals het verkrijgen van toestemming van proefpersonen.

Critici beweren dat deze door AI gegenereerde beelden schadelijke stereotypen over ontwikkelingslanden en hun bevolking versterken. Ze wijzen op de raciale aard van veel van deze beelden, die vaak Afrikanen of Aziaten in stereotype en ontmenselijkende situaties afbeelden. Hoewel sommige platforms de mogelijkheid van vooringenomenheid in door AI gegenereerde inhoud erkennen, leggen ze vaak de verantwoordelijkheid bij de consumenten om de beelden die ze gebruiken kritisch te beoordelen. Anderen zeggen dat het elimineren van vooroordelen een voortdurende uitdaging is, vergelijkbaar met “proberen de oceaan droog te leggen”.

Discussie over gebruik in wereldwijde gezondheidscommunicatie

Het gebruik van AI-gegenereerde beelden in wereldwijde gezondheidscommunicatie heeft tot discussie geleid. Sommige organisaties hebben het gebruik ervan verdedigd met het argument dat het de privacy en waardigheid van echte mensen beschermt. Critici maken zich echter zorgen over de ethische implicaties van het gebruik van gefabriceerde beelden om complexe sociale problemen weer te geven. Ze vrezen dat de verspreiding van deze beelden schadelijke stereotypen verder zal verankeren en zal bijdragen tot een vertekend begrip van armoede en de realiteit ervan.

Het feit dat AI-gegenereerde beelden vooroordelen in stand kunnen houden, geeft aanleiding tot bezorgdheid over de bredere impact ervan. Aangezien deze beelden online circuleren en gebruikt worden om toekomstige AI-modellen vorm te geven, bestaat het risico dat ze bestaande vooroordelen versterken en onjuiste voorstellingen van kwetsbare bevolkingsgroepen versterken.

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.