Apple: “Software om kindermisbruik op te sporen mag door de overheid niet voor andere doeleinden gebruikt worden”

Apple wil met behulp van een softwarepakket nagaan of de iPhone-gebruikers beelden van kindermisbruik bezitten. Critici maken zich onder meer zorgen over wat dat betekent voor de privacy van de gebruikers. De techgigant laat weten dat het alle verzoeken van overheden zal ‘weigeren’ om inhoud te controleren die verder gaat dan seksueel misbruik van kinderen.

Waarom is dit belangrijk?

Apple wil kindermisbruik opsporen met behulp van een systeem dat dergelijke foto's kan herkennen. Experts maken zich zorgen dat overheden of Apple zelf misbruik kan maken van die tool om de privacy van de gebruikers te schenden.

Apple is van plan software op Amerikaanse iPhones te installeren om te scannen op beelden van kindermisbruik, liet de Financial Times vorige week weten. Het geautomatiseerde systeem zou proactief een menselijk team waarschuwen als het denkt dat er illegaal beeldmateriaal is gedetecteerd. Vervolgens zou het contact opnemen met de wetshandhavingsinstanties als het materiaal kan worden geverifieerd. Het systeem zal in eerste instantie alleen in de VS worden ingevoerd.

Bezorgdheden over privacy

Kort na de bekendmaking van het nieuws uitten veiligheidsexperts hun bezorgdheden over wat de impact zal zijn van de nieuwe software, genaamd “neuralMatch.” Ze maken zich daarbij in de eerste plaats zorgen over de privacy. Ook WhatsApp noemde recent de nieuwe veiligheidstools van Apple een “erg verontrustend surveillancesysteem.”

Critici stellen zich onder meer de vraag of de software wel enkel zal gebruikt worden om kindermisbruik op te sporen. “Dit is een door Apple gebouwd en beheerd bewakingssysteem dat heel gemakkelijk kan worden gebruikt om privé-inhoud te scannen op alles wat zij of een regering besluit te willen controleren”, liet Will Cathcart, hoofd van WhatsApp, weten.

“Enkel voor opsporen kindermisbruik”

Apple heeft benadrukt dat het geen enkele regering zal toestaan zijn nieuwe instrument te gebruiken voor andere doeleinden, zoals het controleren van bepaalde groepen. “Voor alle duidelijkheid: deze technologie is beperkt tot het opsporen van in iCloud opgeslagen beeldmateriaal van kindermisbruik (CSAM) en wij gaan niet in op het verzoek van regeringen om dit uit te breiden”, liet de techgigant weten in een document gepubliceerd op de site van Apple.

Voorts herhaalde Apple in het document dat elke melding van kindermisbruik door een mens zal gecontroleerd worden. “In een geval waarbij het systeem foto’s markeert die niet overeenkomen met bekende CSAM-afbeeldingen, zal de account niet worden uitgeschakeld en wordt er geen melding gedaan bij de autoriteiten”, aldus Apple. De techgigant voegde eraan toe dat de functie niet werkt bij foto’s die worden opgeslagen in de privébibliotheek van het toestel.

Lees ook:

(jvdh)

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.