EU-parlement maakt AI-gegenereerd materiaal over seksueel misbruik van kinderen strafbaar


Key takeaways

  • Het Europees Parlement heeft gestemd voor het strafbaar stellen van het maken, bezitten en verspreiden van materiaal over seksueel misbruik van kinderen dat geproduceerd is met behulp van kunstmatige intelligentie.
  • De wetgevers benadrukten de noodzaak om AI-gegenereerde CSAM aan te pakken om desensibilisatie en mogelijk misbruik in de echte wereld te voorkomen.
  • De richtlijn creëert een uniform wettelijk kader in de hele EU om alle vormen van online kindermisbruik te bestrijden, waaronder kinderlokkerij, sextortion en livestreaming van misbruik.

Het Europees Parlement komt in actie

Het Europees Parlement heeft met een overweldigende meerderheid voor een richtlijn gestemd die het maken, bezitten en verspreiden van materiaal over seksueel misbruik van kinderen (CSAM) dat met behulp van kunstmatige intelligentie is gemaakt, strafbaar stelt. Dit baanbrekende besluit weerspiegelt een brede consensus over het hele politieke spectrum en laat zien dat de EU zich inzet voor de bescherming van kinderen online.

De wetgevers benadrukten de dringende noodzaak om deze opkomende bedreiging aan te pakken, waarbij ze opmerkten dat door AI gegenereerde CSAM mensen ongevoelig kan maken en mogelijk kan leiden tot misbruik in de echte wereld. Onderzoek heeft aangetoond dat er een sterke correlatie bestaat tussen het bekijken van beledigende inhoud en een verhoogd risico op het plegen van contactmisdrijven tegen minderjarigen.

Een allesomvattende aanpak

De richtlijn gaat verder dan alleen het aanpakken van AI-gegenereerd beeldmateriaal. Het creëert een uniform wettelijk kader in de hele EU om alle vormen van online kindermisbruik te bestrijden, waaronder kinderlokkerij, sextortion en het livestreamen van misbruik. Het is belangrijk dat de meldtermijnen voor seksueel misbruik worden verlengd, omdat veel slachtoffers pas na jaren aangifte doen.

Het voorstel is er ook op gericht om zogenaamde “pedofielenhandboeken” te verbieden, die instructies geven over het manipuleren van kinderen en het ontwijken van ontdekking. Deze alomvattende aanpak is bedoeld om een veiligere online omgeving voor kinderen in de hele Europese Unie te creëren.

Een gezamenlijke inspanning

Hoewel de stemming van het Parlement een belangrijke stap voorwaarts is, zullen er nu onderhandelingen beginnen tussen het Parlement, de Raad van de EU en de Europese Commissie om de wet af te ronden. Er waren aanvankelijk meningsverschillen over de strafbaarstelling van door AI gegenereerde CSAM en de definitie van de leeftijd waarop iemand toestemming moet geven. Sterke pleitbezorging van Europarlementariërs, industriegroepen en kinderbeschermingsorganisaties heeft er echter bij de ministers op aangedrongen om zich aan te sluiten bij het standpunt van het Parlement.

Het uiteindelijke doel is om een robuust wettelijk kader te creëren dat kinderen effectief beschermt tegen online seksueel misbruik en seksuele uitbuiting. Deze samenwerking tussen wetgevers, techbedrijven en voorvechters van kinderveiligheid benadrukt de toewijding van de EU om prioriteit te geven aan het welzijn van haar jongste burgers.

In een gezamenlijke reactie verwelkomden zowel kinderrechtenorganisaties als de techsector de beslissing van het Europees Parlement. ECLAG en DOT Europe roepen de lidstaten op om het Parlement te volgen en álle vormen van kindermisbruik, inclusief AI-gegenereerd materiaal, expliciet strafbaar te stellen in de definitieve richtlijn. De explosieve toename van online misbruik en technologische evoluties zoals AI maken dringende en eensgezinde actie noodzakelijk. Volgens de organisaties is elke vorm van kindermisbruik – digitaal of fysiek, echt of synthetisch – een ernstige bedreiging voor kinderen en moet die zonder uitzondering worden aangepakt.

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.