Chinese AI-chatbots maken zich schuldig aan censuur bij politiek gevoelige onderwerpen


Key takeaways

  • Chinese AI-chatbots zijn geneigd om te censuren wanneer politiek gevoelige onderwerpen ter sprake komen.
  • Door subtiele tactieken te gebruiken, zoals weigeringen, afleidingen en door de staat goedgekeurde verhalen, kunnen de AI-modellen gebruikers beïnvloeden zonder openlijke manipulatie.
  • De strenge regelgeving van China op het gebied van AI-ontwikkeling heeft een directe invloed op de output van zijn taalmodellen en bevordert de afstemming op “kernwaarden van het socialisme”.

Een recent onderzoek gepubliceerd in PNAS Nexus onthult een significant verschil in de manier waarop Chinese en niet-Chinese AI-chatbots reageren op politiek gevoelige vragen. Onderzoekers ontdekten dat Chinese modellen, waaronder BaiChuan, DeepSeek en ChatGLM, eerder geneigd waren om te weigeren te antwoorden of onjuiste informatie te verstrekken wanneer ze werden geconfronteerd met vragen over onderwerpen als de status van Taiwan, etnische minderheden of pro-democratische activisten.

Subtiele censuurtactieken

Die censuur gebeurt onder meer door weigeringen, afleidingen en het herhalen van officiële staatsverhalen. Toen bijvoorbeeld werd gevraagd naar internetcensuur in China, vermeldden sommige Chinese modellen niet de “Great Firewall”, een goed gedocumenteerd systeem dat de online toegang beperkt. In plaats daarvan verklaarden ze vaag dat de autoriteiten “het internet beheren in overeenstemming met de wet”.

De onderzoekers benadrukten het subtiele karakter van deze censuur en merkten op dat chatbots vaak excuses aanbieden of rechtvaardigingen geven voor hun indirecte antwoorden. Die aanpak kan mogelijk de perceptie, besluitvorming en het gedrag van gebruikers beïnvloeden zonder dat zij zich realiseren dat zij worden blootgesteld aan een gecensureerd standpunt.

Impact Chinese regelgeving op ontwikkeling AI

Hoewel erkend wordt dat culturele en taalkundige factoren kunnen bijdragen aan variaties in de reacties van chatbots, belicht de studie de potentiële impact van recente Chinese regelgeving op de ontwikkeling van AI. Die verplicht AI-bedrijven om “socialistische kernwaarden” hoog te houden en verbiedt inhoud die de nationale soevereiniteit zou kunnen ondermijnen of het imago van China zou kunnen schaden.

Bovendien worden bedrijven die in staat worden geacht “sociale mobilisatie” mogelijk te maken, onderworpen aan veiligheidsbeoordelingen en moeten zij hun algoritmen voorleggen aan de Cybersecurity Administration of China (CAC). De onderzoekers suggereren dat die regelgeving de output van grote taalmodellen die in China worden ontwikkeld, kan beïnvloeden. (fc)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.