Deepfake fraude vindt op steeds grotere schaal plaats, volgens studie


Key takeaways

  • De tools om nepvideo’s en -audio’s te maken zijn verrassend goedkoop, toegankelijk en effectief.
  • In het Verenigd Koninkrijk alleen al wordt er geschat dat Britse consumenten 9,4 miljard pond (10,8 miljard euro) zijn verloren aan AI fraude in de eerste negen maanden van 2025.
  • Momenteel staat de technologie voor stemklonen al op punt, wat het voor oplichters gemakkelijk maakt om hiermee mensen op te lichten.

Deepfake fraude is geen kleinschalig probleem meer, maar is “industrieel” gegaan. Dat blijkt uit een studie van de AI Incident Database. De tools om nepvideo’s en -audio’s te maken zijn verrassend goedkoop, toegankelijk en effectief.

Businessmodel

Deepfake fraude is uitgegroeid tot een businessmodel bij oplichters. Vaak keren dezelfde patronen terug. Bekende en vertrouwde gezichten, gaande van politici en nieuwsankers tot ondernemers en celebrities worden misbruikt om zogezegde investeringskansen, cryptoplatformen of gezondheidsproducten aan te prijzen. Die video’s worden via sociale media verspreid en bereiken zo de slachtoffers.

Ook ‘deepfake’ dokters zijn populair bij oplichters. Ze promoten allerlei welzijns- en gezondheidsproducten.

In het Verenigd Koninkrijk alleen al wordt er geschat dat Britse consumenten 9,4 miljard pond (10,8 miljard euro) zijn verloren aan AI fraude in de eerste negen maanden van 2025.

Minderjarigen

Niet-consensueel seksueel beeldmateriaal is een van de meest alarmerende patronen die naar boven komt in de studie. Van november 2025 tot en met januari 2026 werden er meerdere ernstige gevallen gemeld waarbij scholen en minderjarigen betrokken waren. Jongeren werden het doelwit van fake-beelden, die vaak werden verspreid binnen hun schoolomgeving.

Steeds realistischer

“De modellen worden steeds beter en goedkoper, bijna iedereen kan ze nu gebruiken”, vertelt Fred Heiding, een onderzoeker aan Harvard die onderzoek voert naar AI en cybersecurity, aan The Guardian. Hij wijst erop dat het ergste nog moet komen. Momenteel staat de technologie voor stemklonen al op punt, wat het voor oplichters gemakkelijk maakt om hiermee mensen op te lichten. Wel staat de technologie voor deepfake video’s volgens hem nog niet op punt. (at)

Volg Business AM ook op Google Nieuws

Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

Meer

Ontvang de Business AM nieuwsbrieven

De wereld verandert snel en voor je het weet, hol je achter de feiten aan. Wees mee met verandering, wees mee met Business AM. Schrijf je in op onze nieuwsbrieven en houd de vinger aan de pols.