Apple wil iPhones in de VS scannen op kindermisbruik

Apple is van plan software op Amerikaanse iPhones te installeren om te scannen op beelden van kindermisbruik, dat schrijft Financial Times donderdag. Beveiligingsexperts reageren bezorgd en waarschuwen dat dit de deur kan openen voor toezicht op de persoonlijke apparaten van miljoenen mensen.

Waarom is dit belangrijk?

Privacy is meer dan een gevoelig onderwerp geworden. Zo kreeg de Coronalert-app al heel veel kritiek. Nu is Apple van plan om verboden materiaal te zoeken op de telefoons van zijn klanten. Experts zijn bezorgd dat dat de deur opent naar een bewakingssamenleving.

Apple heeft eerder deze week aan een aantal Amerikaanse academici uitleg gegeven over het voorgestelde systeem, dat bekend staat als “neuralMatch”.

Het geautomatiseerde systeem zou proactief een menselijk team waarschuwen als het denkt dat er illegaal beeldmateriaal is gedetecteerd. Vervolgens zou het contact opnemen met de wetshandhavingsinstanties als het materiaal kan worden geverifieerd. Het systeem zal in eerste instantie alleen in de VS worden ingevoerd.

Apple bevestigde zijn plannen in een blogbericht. Het bedrijf zei dat de scantechnologie deel uitmaakt van een nieuw pakket kinderbeveiligingssystemen dat “zich in de loop van de tijd zal ontwikkelen en uitbreiden”. De functies zullen worden uitgerold als onderdeel van iOS 15, dat naar verwachting volgende maand uitkomt.

Scannen op bestaand materiaal

Apple zou enkel een houder van kinderpornomateriaal (CSAM) kunnen detecteren, als er bekend CSAM-materiaal in de iCloud staat. Dan kan Apple die informatie verstrekken aan het National Center for Missing and Exploited Children en de autoriteiten.

De voorstellen zijn een poging van Apple om een compromis te vinden. Zo wil Apple een evenwicht vinden tussen de bescherming van de privacy van de gebruikers en een tegemoetkoming aan de vraag van overheden, politie en kinderveiligheidsorganisaties om meer hulp te krijgen bij een strafrechtelijk onderzoek over terrorisme en kinderporno.

De relatie tussen techbedrijven en wetshandhavingsinstanties staat al even onder spanning. Telefoonmateriaal is niet bruikbaar in rechtszaken omdat alles met een code beveiligd is. Zelfs als de beklaagde een terreurmisdaad beging, zoals in 2016 het geval was in San Bernardino, Californië.

Bezorgdheden 

Beveiligingsexperts  steunen natuurlijk de inspanningen om kindermisbruik tegen te gaan. Toch zijn ze bezorgd dat Apple het risico loopt overheden over de hele wereld in staat te stellen toegang te zoeken tot de persoonlijke gegevens van hun burgers, mogelijk veel verder dan oorspronkelijk de bedoeling was.

“Het is een absoluut afschuwelijk idee, omdat het zal leiden tot een gedistribueerde bulk surveillance van … onze telefoons en laptops,” zegt Ross Anderson, professor in beveiligingstechniek aan de Universiteit van Cambridge tegen Financial Times.

Systemen voor de opslag van foto’s in de cloud en sociale netwerksites scannen al op beelden van kindermisbruik, maar dat proces wordt ingewikkelder wanneer men toegang probeert te krijgen tot gegevens die zijn opgeslagen op een persoonlijk apparaat.

Veiligheidsvoucher

Het neuralMatch-algoritme van Apple zal continu foto’s scannen die zijn opgeslagen op de iPhone van een Amerikaanse gebruiker en die ook zijn geüpload naar het iCloud-back-upsysteem. De foto’s van de gebruikers die, via een proces dat “hashing” wordt genoemd, worden omgezet in een reeks getallen, worden vergeleken met de foto’s in een database van bekende beelden van seksueel misbruik van kinderen.

Het systeem is getraind op 200.000 beelden van seksueel misbruik die door het NCMEC zijn verzameld.

Volgens mensen die over de plannen zijn ingelicht, krijgt elke foto die in de VS naar iCloud wordt geüpload een “veiligheidsvoucher” waarop staat of hij verdacht is of niet. Zodra een bepaald aantal foto’s als verdacht wordt gekenmerkt, zal Apple alle verdachte foto’s laten ontsleutelen en, als ze illegaal blijken te zijn, doorgeven aan de bevoegde autoriteiten.

Lees ook:

Meer