Chantage met nepbeelden is lastig uit te bannen: 'Maak me ernstige zorgen'

Gisteren om 16:30 • Aangepast gisteren om 17:06
nl
Een klik op een video, en het leven van een tiener in Valkenswaard zag er donderdag ineens heel anders uit. Hij werd slachtoffer van digitale chantage met een video, waarbij zijn foto's en een bestaande masturbatievideo in elkaar waren geknutseld. Gemanipuleerde video's worden zó overtuigend gemaakt, dat chantage daarmee steeds vaker voorkomt. En het maken van zo'n video? Dat is tegenwoordig kinderspel. Volgens Sander Duivestein, expert op het gebied van kunstmatige intelligentie en deepfake, is het een gevaarlijke ontwikkeling.
Profielfoto van Mees van Roosmalen
Geschreven door

De daders gebruikten wél twee echte foto’s van de jongen en monteerden die bij een video, die waarschijnlijk ergens van het internet is geplukt. Zo leek het alsof hij de hoofdpersoon in het filmpje was. Volgens Duivestein, expert op het gebied van kunstmatige intelligentie en deepfake, is dit tegenwoordig heel makkelijk.

"Je hoeft helemaal geen genie te zijn om beelden te manipuleren. Het enige wat je nodig hebt, is een foto van een gezicht. Dat kan een scherpe profielfoto van sociale media zijn, maar ook een snelle foto die je in de klas gemaakt hebt. Vervolgens open je die foto en een bestaande video in een tool en kan je die persoon alles laten doen. Het wordt op die manier veel misbruikt met pornografische beelden", zegt Duivestein.

Dit soort gemanipuleerde video's worden steeds vaker in elkaar geknutseld. Deepfake is daar een veel voorkomend voorbeeld van. Het is een nepvideo, -foto of -audio die met behulp van kunstmatige intelligentie (AI) zo realistisch is gemaakt dat het lijkt alsof iemand iets zegt of doet wat in werkelijkheid nooit is gebeurd.

De hulpmiddelen om zulke beelden te maken, bestaan zo'n vijf jaar. Waar het ooit begon met lage resolutie video's zijn de deepfake video's tegenwoordig niet meer van echt te onderscheiden. "De ontwikkeling is razendsnel gegaan." Dat komt mede door de opkomst van advertenties op onder andere Facebook.

"Mensen weten door die advertenties steeds makkelijker de weg naar deze tools te vinden. 'Wil jij ook een deepfake video van iemand? Ga dan naar deze tool', zijn teksten die regelmatig in een Facebook feed terechtkomen. En dat wordt nauwelijks gehandhaafd. Het gaat bij deze bedrijven enkel om geld en aandacht. Een slechte zaak, want deze deepfake-tools zouden absoluut niet gepromoot moeten worden."

Het gaat zelfs zo ver dat amateurs zich tegenwoordig op het internet verzamelen om hun deepfake naaktbeelden te delen met elkaar. "Er zijn hele forums voor opgezet. Een makkelijke manier om mensen te chanteren."

"Het is een confrontatie die niet iedereen aankan. Daar maak ik mij ernstige zorgen over."

De chantage leidt volgens Duivestein tot een veel groter probleem. "Het dreigen met of daadwerkelijk verspreiden van dit soort deepfake beelden kunnen leiden tot ernstige mentale problemen en uiteindelijk zelfs tot suïcide. Het is een confrontatie die niet iedereen aankan. Daar maak ik mij ernstige zorgen over."

Duivestein, auteur van het boek Echt nep, denkt dat het lastig is om ons te wapenen tegen de opkomst van deze tools. "Je hebt AI-detectie tools, waarbij je kan checken of beelden echt of nep zijn. Alleen zoeken makers van de tools altijd manieren om deze detectie te omzeilen, waardoor het niet altijd betrouwbaar is. Zo ontstaat er een kat- en muis spel."

Daarnaast is het voor hulpdiensten ook lastig om in te grijpen. "Ze zullen het wel serieus nemen, maar in de praktijk is het moeilijk om te achterhalen wie deze beelden gemanipuleerd heeft. Toch is straffen het meest effectief om deze mensen te stoppen. Zodra ze weten wat de consequenties zijn, denken ze misschien twee keer na voordat ze een nepvideo maken om iemand meet te chanteren."

De politie meldt dat er geen cijfers over chantage met deepfake beschikbaar zijn. Wel raden ze alle slachtoffers aan om aangifte te doen.

App ons!

Heb je een foutje gezien of heb je een opmerking over dit artikel? Neem dan contact met ons op.