Emotieherkenning nieuwste wapen in China’s bewakingsmachine

China probeert potentiële misdaden te voorspellen door de emotionele toestand van burgers te monitoren met artificiële intelligentie. Dat meldt de Britse zakenkrant The Financial Times (FT). Experts zijn het er over eens dat die technologie nog niet op punt staat.

‘Op basis van videobeelden kan emotieherkenningssoftware snel criminele verdachten identificeren door hun mentale toestand te analyseren. Zo kunnen we bijvoorbeeld terrorisme en smokkel voorkomen.’ Dat zei Li Xiaoyu, een veiligheidsexpert van de Chinese overheid vorige week op de ‘China Public Security Expo 2019’ in Shenzhen. ‘En we gebruiken het nu al!’

Grootste bewakingssector ter wereld

Op de veiligheidsbeurs in het Aziatische Silicon Valley probeerden meer dan 1.500 bedrijven indruk te maken op Chinese overheidsfunctionarissen, veiligheidsdiensten en zakenlui. De Chinese bewakingssector is de grootste ter wereld en iedereen wil een stuk van die lucratieve taart.

De sector is traditioneel het terrein van bewakingsfirma’s zoals Hikvision en Dahua, maar volgens FT worden zij steeds meer uitgedaagd door China’s internetgiganten zoals Huawei en Alibaba. Toepassingen op basis van 5G en Artificiële intelligentie winnen aan belang. Dit jaar was emotieherkenning dé grote hype op vlak van misdaadpreventie op de bewakingsexpo.

Onderdrukte minderheidsgroepen

Xiaoyu beweerde dat de technologie vooral in douaneposten gebruikt wordt. Op basis van lichaamstaal en gezichtsuitdrukkingen zou het signalen van agressiviteit en nervositeit herkennen. Zelfs de intentie om anderen aan te vallen kan worden gesignaleerd, volgens de politieofficier in Xinjiang.

Volgens mensenrechtenorganisaties worden dan een miljoen Oeigoeren in de Chinese regio Xinjiang vastgehouden. De Chinese overheid spreekt ’transformatiekampen’ gebouwd om te voorkomen dat extremisme zich verspreidt.

Xiaoyou is een belangrijk lid van het veiligheidsbureau in Xinjiang. Het voorbije jaar kwam die regio geregeld in het nieuws door berichten over heropvoedingskampen waar volgens mensenrechtenorganisaties een miljoen Oeigoeren worden vastgehouden. Dat is een Chinese minderheidsgroep verwant aan de Turken. Niet toevallig wordt emotieherkenning voor misdaadpreventie massaal getest in dat deel van China. Het is opmerkelijk dat de investering in stedelijke bewakingsinfrastructuur in de provincie Xinjiang bijna een tienvoud bedraagt van de investering in de hoofdstad Peking.

Omstreden technologie

Wereldwijd zijn bedrijven zoals Google, Amazon en Microsoft ook bezig met emotieherkenning. Het wordt voornamelijk gebruikt om producten te verkopen, maar ook in de rekrutering- en verzekeringssector. Volgens experts is de technologie is echter nog niet betrouwbaar. In juli kwam een studie uit waarbij een groep psychologen twee jaar lang meer dan 1.000 papers over emotiedetectie analyseerde. Ze kwamen tot de conclusie dat het onmogelijk is om correct een gevoelsstoestand aan gezichtsuitdrukkingen te linken zonder ook persoonlijke en cultuurgebonden eigenschappen in overweging te nemen.

Iemand die gemonitort wordt heeft trouwens de neiging om zijn gedrag aan te passen wat ook een verstoord resultaat kan opleveren. In de handleiding van de Rekognition, een toepassing van Amazon dat gezichten analyseert voor politiekorpsen, staat dat iemands gelaatsuitdrukking geen aanwijzing is voor de gemoedsstoestand van die persoon.

Meer