Verenigd Koninkrijk verbiedt AI-tools die naaktbeelden genereren om online vrouwenhaat aan te pakken


Key takeaways

  • De Britse regering gaat apps verbieden die AI gebruiken om kleding van afbeeldingen te verwijderen, in een poging om online vrouwenhaat en geweld tegen vrouwen en meisjes aan te pakken.
  • Ontwikkelaars en distributeurs van dergelijke apps zullen onder de nieuwe wetgeving aansprakelijk worden gesteld voor het profiteren van schadelijke technologie.
  • Kinderbeschermingsorganisaties verwelkomen het verbod, maar roepen op tot verdere maatregelen, waaronder verplichte apparaatbescherming, om de verspreiding van kinderpornografie te voorkomen.

De Britse regering is van plan om nieuwe wetgeving in te voeren om online vrouwenhaat en geweld tegen vrouwen en meisjes aan te pakken. Een belangrijk onderdeel van die strategie is het verbieden van zogenaamde “nudificatie”-apps, die kunstmatige intelligentie (AI) gebruiken om kleding van afbeeldingen te verwijderen.

Bestrijding van schadelijke technologieën

Die apps worden beschouwd als een ernstige bedreiging vanwege hun potentieel voor misbruik en uitbuiting. Het maken van expliciete, niet-consensuele deepfakes is al illegaal onder de Online Safety Act, maar de nieuwe wetgeving zal zich specifiek richten op degenen die nudificatie-apps maken of verspreiden, en hen verantwoordelijk stellen voor het misbruiken van dergelijke schadelijke technologie.

Deskundigen hebben hun bezorgdheid geuit over de opkomst van deze apps en de verwoestende gevolgen die vervalste naaktfoto’s op slachtoffers kunnen hebben. De kindercommissaris voor Engeland heeft opgeroepen tot een totaal verbod op zulke apps, en voegde eraan toe dat de technologie die deze schadelijke praktijken mogelijk maakt ook illegaal zou moeten zijn.

Werken met technologiebedrijven

De regering heeft beloofd om samen te werken met technologiebedrijven om effectieve oplossingen te ontwikkelen tegen het misbruik van intieme beelden. Ze werkt in het bijzonder samen met het Britse bedrijf voor beveiligingstechnologie SafeToNet, dat software met kunstmatige intelligentie heeft ontwikkeld waarmee seksuele inhoud kan worden geïdentificeerd en geblokkeerd, en waarmee kan worden voorkomen dat camera’s dergelijk materiaal vastleggen.

Die maatregelen bouwen voort op bestaande filters die worden gebruikt door platforms zoals Meta om potentiële naaktheid te detecteren en te markeren, vaak met het doel om kinderen te beschermen tegen het delen van intieme beelden.

De behoefte aan krachtigere actie

Kinderbeschermingsgroepen hebben de regering al opgeroepen om een harder standpunt in te nemen tegen nudificatie-apps. De Internet Watch Foundation (IWF), die een hulplijn beheert waar jongeren onder de 18 expliciete beelden online kunnen melden, onthulde dat 19 procent van de bevestigde melders slachtoffer waren geworden van beeldmanipulatie.

De IWF verwelkomde het verbod op de schadelijke apps en zei dat die producten geen legitiem doel hebben en kinderen blootstellen aan een verhoogd risico op schade. De NSPCC juichte ook de stap van de regering toe, maar zei teleurgesteld te zijn over het gebrek aan verplichte bescherming op apparaten om de verspreiding van kinderpornografisch materiaal (CSAM) te voorkomen.

De liefdadigheidsinstelling roept technologiebedrijven op om eenvoudigere methoden te implementeren voor het identificeren en voorkomen van de verspreiding van kinderpornografie, met name in privéberichten. De regering heeft toegezegd het onmogelijk te maken voor kinderen om naaktfoto’s op hun telefoon te maken, te delen of te bekijken en wil ook Ai-tools die ontworpen zijn om kinderporno te maken of te verspreiden, verbieden.

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

(ns)

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.