Deep fake is een samentrekking van deep learning en fake (oftewel nep). Bij deep fake (ook wel geschreven als deepfake) worden menselijke beelden op basis van Artificial Intelligence (AI) samengesteld. Anders gezegd: het wordt gebruikt om bestaande afbeeldingen en video te combineren. Dat betekent ook dat we beeld op grote schaal kunnen manipuleren. Zo is het bijvoorbeeld mogelijk om het gezicht van de ene persoon te vervangen met dat van een ander.
Dit soort deep fake-technologie bestaat al langer. De technologie is tegenwoordig echter extreem goed! Je hebt vaak nog maar één foto nodig is om een animatie te creëren. Hiertoe gebruikt Artificial Intelligence (AI) de grote lijnen van het gezicht als uitgangspunt, waarna het neppe beeld er omheen bewerkt wordt.
Het probleem met deep fake is natuurlijk dat we deze persoon vervolgens ook van alles kunnen laten zeggen. En dat heeft grote gevaren, zo blijkt ook weer uit onderzoek van de Universiteit van Amsterdam, via NOS. Mensen die dit type gemanipuleerde filmpjes onder ogen krijgen, kunnen negatiever gaan denken over die persoon.
Tekst gaat verder onder de afbeelding.
De onderzoekers maakten voor dit onderzoek een video van voormalig CDA-leider Sybrand van Haersma Buma. De groep die de deepfake-video van Buma te zien kreeg, dacht na afloop negatiever over de politicus dan de groep die de oorspronkelijke video bekeek. Ook frappant: slechts 8 van de 140 mensen die het filmpje zagen, twijfelden aan de echtheid ervan. En dat terwijl de deep fake niet eens perfect was, zo was goed te zien dat lippen van Buma af en toe raar bewogen.
Het gemeten effect was het grootst bij CDA-stemmers. Zij reageerden wat betreft negatieve gedachtes het heftigst op het filmpje. Dit is een voorbeeld van microtargeting. Het kan voor kwaadwillenden dus lonen om heel specifiek verschillende deep fakes naar verschillende mensen te sturen. Omdat de gebruikte AI-technologie zich in een razend tempo ontwikkelt, is dat in de nabije toekomst mogelijk een reëel risico.
Nu gaat het hier natuurlijk om een gecontroleerd experiment, maar het gevaar van deep fakes is in de praktijk al bewezen. Omdat je elke foto of video kan gebruiken voor het maken van neppe video’s, is de kans groot dat we steeds meer nepnieuws gaan zien. Dat merkte bijvoorbeeld ook de Amerikaanse politica Nancy Pelosi, die te maken kreeg met een deep fake-video waarin zij zogenaamd dronken zou zijn. De video werd enorm vaak gedeeld op Facebook, waarbij lang niet iedereen in de gaten had dat het filmpje gemaakt was met AI.
Deepfakes hoeven niet noodzakelijk negatief te zijn. Internetavatar Sweetie werd bijvoorbeeld gecreëerd om online pedofielen op te sporen. Of neem de inzet van deepfakes bij rollenspellen. Dat kan uitkomst bieden bij traumaverwerking, waarbij het slachtoffer de confrontatie aan kan gaan met de dader. Een tweede voorbeeld: het tot leven wekken van geliefden bij rouwverwerking. Daarbij heeft een nabestaande een gesprek met de deepfake-versie van een overleden dierbare.
Meer lezen over dit onderwerp?
Misschien vind je deze artikelen ook interessant:
ICT-trends: Artificial Intelligence blijft zich doorontwikkelen
Artificial Intelligence ingezet om Romeinse keizers te reconstrueren
Hoe Internet of Things en Artificial Intelligence bijen kunnen redden
Van cybersecurity naar cyberveerkracht met Artificial Intelligence