EN

Deep fake-technologie; een gevaar voor onze privacy?

Deep fake is een samentrekking van deep learning en fake (oftewel nep). Bij deep fake (ook wel geschreven als deepfake) worden menselijke beelden op basis van Artificial Intelligence samengesteld. Anders gezegd: het wordt gebruikt om bestaande afbeeldingen en video te combineren. Dat betekent ook dat we beeld op grote schaal kunnen manipuleren. Zo is het bijvoorbeeld mogelijk om het gezicht van de ene persoon te vervangen met dat van een ander.

Gezichtenruil met deep fake-technologie

Van deze deep fake-toepassingen, waarbij het gezicht van een persoon vervangen wordt, zagen we de laatste weken een aantal grappige voorbeelden voorbij komen. Bijvoorbeeld onderstaande video’s, waarin Bohemian Rhapsody-acteur Rami Malek het gezicht van Queen-zanger Freddie Mercury krijgt. In het tweede filmpje laat de maker zien hoe hij zijn filmpje gemaakt heeft.

Tekst gaat verder onder de video’s.

Hoe werkt deep fake-technologie?

Dit soort deep fake-technologie bestaat al langer. De technologie is tegenwoordig echter extreem goed! Bovenstaande filmpje laat helaas slechts gedeeltelijk zien hoe deepfake werkt. Voor een duidelijker voorbeeld gebruiken we een filmpje van Samsung’s Articificial Intelligence lab in Rusland. Hierin zie je dat er tegenwoordig eigenlijk nog maar één foto nodig is om een animatie te creëren. Het gevaar hierbij is dat we deze persoon vervolgens ook van alles kunnen laten zeggen. Hiertoe gebruikt Artificial Intelligence de grote lijnen van het gezicht als uitgangspunt, waarna het neppe beeld er omheen bewerkt wordt.

Privacyschending met deep fake-technologie

Ons voorbeeld van deepfake met Rami Malek en Freddie Mercury is natuurlijk enorm onschuldig! De AI-technologie brengt echter ook een groot gevaar met zich mee, namelijk de kans op meer nep nieuws. Je kunt immers elke foto of video gebruiken voor het maken van neppe video’s. Dat merkte bijvoorbeeld ook de Amerikaanse politica Nancy Pelosi, die te maken kreeg met een deep fake-video waarin zij zogenaamd dronken zou zijn. De video werd enorm vaak gedeeld op Facebook, waarbij lang niet iedereen in de gaten had dat het filmpje gemaakt was met AI.

Sowieso is het gebruiken van andermans beelden (zonder toestemming) natuurlijk een vorm van privacyschending. Dat geldt echter helemaal als mensen je dus echt letterlijk woorden in de mond kunnen leggen…

Leuke voorbeelden van deepfakes

Deepfakes hoeven niet noodzakelijk negatief te zijn. Internetavatar Sweetie werd bijvoorbeeld gecreëerd om online pedofielen op te sporen. Ook noemen we stamboomwebsite MyHeritage, die je oude familiefoto’s laat animeren via Deep Nostalgia. Dat betekent dat je kunt zien hoe je betovergrootmoeder er in beweging uitgezien zou hebben. Upload een foto en je ziet haar glimlachen, met haar ogen knipperen en haar gezicht draaien.

Tot slot noemen we de inzet van deepfakes bij rollenspellen. Dat kan uitkomst bieden bij traumaverwerking, waarbij het slachtoffer de confrontatie aan kan gaan met de dader. Een tweede voorbeeld: het tot leven wekken van geliefden bij rouwverwerking. Daarbij heeft een nabestaande een gesprek met de deepfake-versie van een overleden dierbare.

Meer lezen over Artificial Intelligence en deep learning?
Zie bijvoorbeeld:

Machine learning, neurale netwerken en deep learning uitgelegd
Deep Fake News: zien is geloven, werkt niet meer
Slimme oplossingen, slimme apparaten en slimme steden

Extra tip: de documentaire Deep Fake News van VPRO Tegenlicht

Related articles

Popular articles

PrivacybeleidCookie beleid
3Bplus © All rights reserved
WEBSITE PROJECT: