Het maken van ongewenst nepnaakt is een vorm van seksueel misbruik dat steeds vaker voorkomt. “Mensen denken dat er niets aan te doen valt als een beeld eenmaal verspreid is, maar dat is niet waar.”
“Mam, er gaan toplessfoto’s van mij rond. Ze zijn nep en worden nu veel gemaakt, er zijn andere meisjes in mijn klas waarbij dit ook gebeurt.” Dit vertelde een Spaans slachtoffer van nepnaakt aan haar moeder. De BBC sprak met deze moeder naar aanleiding van een politieonderzoek naar AI-naaktbeelden van zeker twintig meisjes in Zuid-Spanje. Vijftien tieners werden uiteindelijk veroordeeld voor het maken van nepnaaktbeelden van leeftijdsgenoten.
Deze zaak wierp wereldwijd de aandacht op misbruik van AI voor het creëren van ongewenst nepnaakt. Hoe vaak dit soort beelden worden gemaakt, weten we niet precies. Dat het vaak gebeurt - en vaker dan we misschien denken - is helder volgens Bart van der Sloot, privacy-onderzoeker aan Tilburg University. Een Italiaans cybersecuritybedrijf onderzocht vijf jaar geleden 15.000 circulerende deepfakes. Dit zijn video’s gemaakt met behulp van kunstmatige intelligentie. Zij concludeerden toen dat meer dan 95 procent van de deepfakes pornografisch is.
Iedereen kan slachtoffer worden
Van der Sloot vertelt dat het heel makkelijk is om met AI pornografische beelden van een ander persoon te maken. “Er zijn apps die hier speciaal voor zijn ontwikkeld. Dit maakt het anders dan bijvoorbeeld wraakporno, waarbij vaak een boze ex seksueel materiaal dat ooit met toestemming gemaakt is, online zet. Nu hoeft het slachtoffer de dader niet eens te kennen en andersom. Doodnormale foto’s kunnen worden gebruikt om pornografisch materiaal te maken.”
— Bart van der SlootAls we niets doen, komt dit straks op alle middelbare scholen voor
Nederlandse artiesten, tv-presentatrices, politici, olympische sporters en leden van het Koninklijk Huis kwamen hierdoor al voor in pornografisch deepfake-materiaal. Zeker vijftien BN’ers deden om deze reden aangifte. Daarnaast is in Nederland, net zoals in Spanje, het verspreiden van nepnaakt van klasgenoten een probleem. “Hoewel we er niet zoveel over horen, weten we dat het heel veel gebeurt”, aldus Van der Sloot. “Als we niets doen, komt dit straks op alle middelbare scholen voor."
Scholieren die dit soort beelden maken zijn zich namelijk vaak niet bewust hoe groot de gevolgen kunnen zijn, aldus Van der Sloot. “De jongens (en in veel mindere mate de meisjes) die deze beelden maken, doen dit vooral omdat ze het grappig of opwindend vinden. Terwijl het voor het slachtoffer een enorm effect kan hebben op het zelfvertrouwen en het zelfbeeld, zelfs al weet iedereen dat het nep is. Om dit tegen te gaan is er dus ook meer bewustzijn en kennis nodig. Niet alleen bij scholieren zelf, maar ook bij scholen én bij ouders. Ouders denken nog te vaak dat dit niet speelt op de school waar hun kind naartoe gaat.”
Nathalie Franse van het Fonds Slachtofferhulp waarschuwt daarnaast voor sextortion met nepnaaktbeelden. “Dit betekent dat gemanipuleerd naakt wordt gebruikt om iemand af te persen. De angst dat nepnaaktbeelden online komen is soms net zo groot als de angst dat echte naaktbeelden online komen. Dit maakt dat mensen - ook met nepnaakt - chantabel kunnen zijn. Hierdoor betalen ze bijvoorbeeld geld, sturen echte naaktbeelden of hebben seks tegen hun wil. Zo hopen ze te voorkomen dat die beelden verspreid worden.”
Hulp beschikbaar
Als je slachtoffer wordt van nepnaakt, dan kan je proberen om de beelden offline te laten halen. “Mensen denken dat er niets aan te doen valt als een beeld eenmaal verspreid is, maar dat is niet waar,” aldus Franse. “Je kan bijvoorbeeld terecht bij het expertisecentrum online misbruik Offlimits. Offlimits is een zogenaamde ‘trusted flagger’. Dit betekent dat ze bij verschillende platforms kunnen aangeven dat een beeld verwijderd moet worden.” Er kan dus iets worden gedaan, maar volgens Franse moet er door de overheid en toezichthouders wel strenger worden opgetreden om ervoor te zorgen dat dit soort beelden sneller offline worden gehaald én om te voorkomen dat ze überhaupt worden gedeeld op bijvoorbeeld sociale media of pornoplatforms.
Digitaal antropoloog Payal Arora van de Universiteit Utrecht doet onderzoek naar hoe techbedrijven wereldwijd om zouden moeten gaan met nepnaakt. “In samenwerking met Google zijn we nu aan het kijken wat er voor nodig is om een wereldwijd nepnaaktprotocol te ontwikkelen. In zo’n protocol kan bijvoorbeeld staan welke stappen een Google-team moet nemen als materiaal wordt gerapporteerd, hoe lang het mag duren voordat er een reactie komt en wat wordt beschouwd als een terechte en een onterechte vraag om beelden te verwijderen.”
— Payal Arora
Om dit goed te doen én het internet wereldwijd een veiligere plek te maken voor vrouwen en kwetsbare groepen is er volgens Arora kennis van lokale contexten nodig. “In het onderzoek dat ik doe ligt de focus op de online wereld in het mondiale zuiden. Jongeren in dit deel van de wereld zijn enorm actief online, maar in sommige landen in deze regio hebben vrouwen amper rechten, of staat er de doodstraf op homoseksualiteit. Dit betekent dat de gevolgen van nepnaaktmateriaal direct levensbedreigend kunnen zijn. Dit heeft natuurlijk ook effect op hoe een platform als Google hiermee om moet gaan.”
Vergeet plezier niet
“Wat we alleen in de hele wereld niet uit het oog mogen verliezen, is dat online seksueel gedrag ook ontzettend vaak volstrekt gezond en met plezier gebeurt. Ook materiaal delen dat niet echt is kan gewenst zijn, bijvoorbeeld bij stellen die elkaar niet of amper in het echt kunnen zien. Rekening houden met de lokale context, betekent dus niet dat je meegaat met de conservatieve moraal in sommige landen en bijvoorbeeld al het seksuele materiaal maar verwijdert. In Iran wordt een afbeelding van een vrouw zonder hijab al gezien als onfatsoenlijk. Je wilt niet dat afbeeldingen van vrouwen zonder hijab zomaar worden verwijderd. Vrouwen doen hun hijab juist af als statement. Ik vind dat waar ook ter wereld, de vrouw of persoon uit een kwetsbare groep die op seksueel beeld staat, centraal moet staan bij het bepalen wat er gebeurt met het beeld”, aldus Arora.

BN'ers zijn een gewild object voor allerhande deepfakes, zoals Geert Wilders en Thierry Baudet die schijnbaar figureerden in deze deepfake zomerhit van het Youtube-kanaal Fake It or Leave It.
Fake It or Leave It, via YouTube.Om in Nederland de schadelijke effecten van ongewenst AI-naakt nu substantieel tegen te gaan, is er volgens Van der Sloot een pakket van maatregelen nodig. “De politie zou hier meer capaciteit voor moeten hebben. Op scholen en daarbuiten moet worden gewerkt aan bewustwording.” En, zo stelt Van der Sloot verder, ook de meest verstrekkende maatregel, namelijk het verbieden van apps die het mogelijk maken om nepnaakt te maken, moet worden overwogen. “Het is zo makkelijk om dit materiaal te maken en tegen iemands wil te verspreiden. Ik vrees dat het dweilen met de kraan open is, als je deze apps niet verbiedt.”