Mening: Deepfake Fraudes Exploiteren Liefde en Vertrouwen Als Nooit Tevoren

Image generated with DALL·E through ChatGPT

Mening: Deepfake Fraudes Exploiteren Liefde en Vertrouwen Als Nooit Tevoren

Leestijd: 7 minuut

AI-gestuurde oplichting is in opmars, met cybercriminelen die deepfake technologie gebruiken om overtuigende video’s en afbeeldingen te creëren die slachtoffers manipuleren. Van een Franse vrouw die dacht dat ze Brad Pitt hielp, tot een slachtoffer overtuigd door een hoogwaardige deepfake, de grenzen tussen realiteit en bedrog vervagen. Naarmate AI-tools evolueren, nemen ook de risico’s toe.

Velen van ons zagen het in januari in het nieuws: een Franse vrouw verloor meer dan $850.000 aan oplichters omdat ze geloofde dat ze het geld aan Brad Pitt gaf – de man waarvan ze dacht dat ze er al meer dan een jaar een relatie mee had.

De oplichters gebruikten geavanceerde generatieve kunstmatige intelligentie om “selfies” te creëren en bewijsmateriaal te vervalsen, waarmee ze hun slachtoffer, Anne – een 53-jarige ontwerpster die midden in een echtscheiding zit – overtuigden van het tragische verhaal van een nep Pitt met dringende medische behoeften. Ze beweerden dat zijn fondsen bevroren waren vanwege zijn echtscheiding van Angelina Jolie.

Anne nam de moedige – en risicovolle – beslissing om haar verhaal publiekelijk te delen, met als gevolg miljoenen spotternijen, beledigingen en virtuele aanvallen. “Als een dwaas heb ik betaald… Elke keer als ik aan hem twijfelde, wist hij mijn twijfels weg te nemen,” zei ze in een Franse Youtube show, zoals gemeld door de BBC. “Ik ben gewoon voor de gek gehouden, ik geef het toe, en daarom ben ik naar voren gekomen, omdat ik niet de enige ben.”

Dat is ze niet. Een paar maanden later arresteerde de Spaanse politie 5 mensen die twee andere vrouwen hadden opgelicht door zich ook voor te doen als Pitt. Een paar dagen geleden werd een Chinese man eveneens bedrogen in de overtuiging dat zijn online vriendin geld nodig had voor medische behandelingen en om haar bedrijf te financieren.

De slachtoffers ontvingen gepersonaliseerde video’s en foto’s—beelden die nergens anders online beschikbaar waren—verdere overtuiging van de uitgebreide leugens van hun bedriegers.

Een recent rapport van Entrust suggereert dat Deepfake pogingen elke 5 minuten plaatsvinden. Elke dag duiken er nieuwe gevallen op van mensen die zijn opgelicht met generatieve AI – een zorgwekkende trend, vooral gezien de duizenden, of zelfs miljoenen, mensen die bedolven zijn onder schulden en schaamte en die het niet durven te melden bij de autoriteiten, laat staan het openbaar te maken.

DeepFake Oplichting In Opkomst

Meerdere studies en rapporten hebben alarm geslagen over de toenemende fraude en cyberaanvallen aangedreven door AI. Recente data van TrustPair’s 2025 Fraud Trends and Insights toonden een stijging van 118% jaar-op-jaar in AI-gedreven fraude, zoals gerapporteerd door CFO.

Hoi, Hiya, een Amerikaans bedrijf gespecialiseerd in spraakbeveiliging en prestatieoplossingen, deelde onlangs de resultaten van een enquête, waaruit bleek dat 31% van de klanten in zes landen in 2024 deepfake oproepen ontvingen, en 45% van hen werd opgelicht – 34% van die groep verloor geld en 32% had persoonlijke informatie gestolen. Gemiddeld verliezen slachtoffers meer dan $500 aan telefoonoplichting.

Een paar dagen geleden onthulde The Guardian dat een georganiseerd netwerk in Georgië – in Oost-Europa – valse advertenties op Facebook en Google gebruikte om meer dan 6.000 mensen in Europa, Canada en het VK op te lichten, waarmee ze $35 miljoen verdienden door hun operaties.

Ongeveer 85 goedbetaalde Georgische oplichters gebruikten publieke figuren zoals de Engelse journalist Martin Lewis, schrijver en avonturier Ben Fogle, en Elon Musk voor hun fraude. De oplichters promootte neppe cryptocurrency en andere investeringsplannen, waardoor slachtoffers geld overmaakten via digitale banken zoals Revolut—die onlangs een bankvergunning heeft gekregen in het VK.

Geavanceerde AI, Meer Geavanceerde Oplichting

Cybercriminelen hebben de afgelopen jaren gebruik gemaakt van generatieve AI, waarbij ze tools zoals ChatGPT inzetten om boeiende e-mails te schrijven en te vertalen, en overtuigende tekstgebaseerde content te genereren. Nu, naarmate de AI-tools zich verder ontwikkelen, is het gebruik van door AI gegenereerde afbeeldingen en video’s toegenomen.

Een paar weken geleden introduceerde ByteDance zijn nieuwste AI-videotool, OmniHuman-1, in staat om een van de meest realistische deepfakes op de markt te genereren. Ondertussen ontwikkelen meer AI-bedrijven soortgelijke technologieën. Het lijkt slechts een kwestie van tijd voordat deze tools ook voor scams worden gebruikt.

Hoewel deze technologieën “te goeder trouw” gebruikt kunnen worden en zelfs om de opkomst van scams te bestrijden – zoals O2’s AI ‘Granny’ Daisy, ontworpen om fraudeurs in real-time gesprekken te betrekken en hen af te leiden van echte slachtoffers – lijken de gevolgen van hun kwaadwillig gebruik onmetelijk.

Bij Wizcase hebben we onlangs een toename van 614% in “Scam-Yourself Attacks” gerapporteerd, waarbij we opmerken hoe hackers deepfake technologieën gebruiken om nepinhoud “realistischer” te laten lijken, en hoe sociale media bedrijven zoals Meta hebben moeten ingrijpen bij varkensslachterij scams, aangezien veel bedreigingsactoren deze platforms gebruiken. In het onderzoek merkte Meta op dat veel oplichtingspraktijken begonnen op dating apps, wat bewijst hoe romantische liefde een van de meest voorkomende lokaas is – nu en in het verleden.

Liefde: Een Krachtig Lokaas

Cybercriminelen zijn niet alleen bedreven in het begrijpen en gebruiken van geavanceerde kunstmatige intelligentie – ze hebben ook een diepgaand inzicht in menselijke intelligentie. Bedreigingsactoren weten hoe ze kwetsbaarheden kunnen identificeren, vertrouwen kunnen opbouwen en hun verzoeken op precies het juiste moment kunnen doen.

De studie Houd je van mij? Psychologische kenmerken van slachtoffers van romantische oplichting, gepubliceerd in 2018 door PhD Monica T. Whitty, legt uit hoe internationale criminele groepen al vele jaren romantische oplichting via dating uitvoeren – zelfs voor het internet – en hoe middelbare, goed opgeleide vrouwen waarschijnlijk voor dit type oplichting vallen – net als Anne.

Wat kunnen we nu verwachten, acht jaar na deze studie, met technologie die lijkt op sciencefiction? Waarschijnlijk zijn we allemaal kwetsbaarder dan we denken.

“Slachtoffers van dit type fraude zijn vaak mensen op zoek naar betekenis, die emotioneel kwetsbaar zijn,” schreef Annie Lecompte, universitair hoofddocent aan de Universiteit van Quebec in Montreal (UQAM), in een recent gepubliceerd artikel in The Conversation. “Hoewel het belachelijk wordt gemaakt en niet begrepen, is romantiekfraude gebaseerd op complexe psychologische mechanismen die het vertrouwen, de emoties en de kwetsbaarheid van slachtoffers uitbuiten.”

Een Gebroken Hart, Een Lege Portemonnee

Liu—de achternaam van de Chinese man die onlangs 200.000 yuan, ongeveer $28.000, verloor in een AI-aangedreven scam—geloofde echt dat zijn AI-vriendin echt was, aangezien hij gepersonaliseerde foto’s en zelfs video’s zag. Hij bouwde een steeds sterkere emotionele band op… met zijn oplichters.

Hoewel hij niet meer details over de context in de rapporten gaf, deed een ander slachtoffer, de 77-jarige vrouw Nikki MacLeod, dat wel. Ze dacht ook dat ze in een echte relatie was met een AI-vriendin en stuurde haar £17.000 – omgerekend ongeveer $22.000 – via bankoverschrijvingen, PayPal en cadeaubonnen.

“Ik ben geen dom persoon, maar ze wist me te overtuigen dat ze een echt persoon was en dat we ons leven samen zouden doorbrengen,” zei MacLeod tegen de BBC.

MacLeod voelde zich eenzaam en verdrietig toen ze Alla Morgan ontmoette in een groepschat. Na een tijdje vroeg MacLeod om een live video, maar Morgan zei dat dat niet mogelijk was omdat ze op een boorplatform werkte. Toen MacLeod begon te vermoeden, begon Morgan realistische video’s te sturen. “Ze stuurde me een video om te zeggen ‘Hallo Nikki, ik ben geen oplichter, ik ben op mijn boorplatform’, en ik was er totaal door overtuigd,” legde MacLeod uit. De inhoud is beschikbaar op de website van de BBC, en het is gemakkelijk te begrijpen waarom MacLeod dacht dat het echt was – het is een hoogwaardige deepfake.

De BBC vroeg een expert in cybersecurity en mens-computer interactie aan de Abertay University, Dr. Lynsay Shepherd, om de foto’s en video’s die MacLeod ontving te analyseren. “Op het eerste gezicht lijkt het legitiem, als je niet weet waar je naar moet zoeken, maar als je naar de ogen kijkt – de oogbewegingen kloppen niet helemaal,” zei Dr. Shepherd.

“De documenten leken echt, de video’s leken echt, de bank leek echt,” zei MacLeod. “Met de introductie van kunstmatige intelligentie, kan elk ding nep zijn.”

Vond je dit artikel leuk?
Geef een beoordeling!
Ik vond het verschrikkelijk Ik vond het echt niet leuk Het was redelijk Best goed! Ik vond het geweldig!

We zijn erg blij dat je van ons werk hebt genoten!

Zou je als gewaardeerde lezer je mening over ons willen delen op Trustpilot? Dit neemt niet veel tijd in beslag en zouden we erg op prijs stellen. Bedankt, je bent geweldig!

Beoordeel ons op Trustpilot
0 Gestemd door 0 gebruikers
Titel
Reactie
Bedankt voor je feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laat een reactie achter

Loader
Loader Meer weergeven...