078-2034021 [email protected]
Onderzoekers aan University College London publiceerden een lijst met Artificial Intelligence-toepassingen die ingezet (kunnen) worden voor criminele doeleinden. Een van toepassingen die aangemerkt werden als zeer gevaarlijk zijn deepfakes. We geven je graag wat voorbeelden van (gevaarlijke) toepassingen van deepfakes.

Voorbeelden van deepfakes

De voorbije jaren verschenen regelmatig deepfake-video’s online. Neem de kersttoespraak van Queen Elizabeth, waarbij het net leek of de Britse vorst zelf sprak. Minder onschuldig is het voorbeeld met Dionne Stax. In haar geval ging het namelijk om een nep-pornofilmpje. Hiervoor werd het hoofd van de presentatrice gemonteerd op dat van een pornoactrice. Ten slotte noemen we Amerikaanse politica Nancy Pelosi, die te maken kreeg met een deepfake-video waarin zij zogenaamd dronken zou zijn. De video werd enorm vaak gedeeld op Facebook, waarbij lang niet iedereen in de gaten had dat het filmpje gemaakt was met AI.

Lees ook: Wat is deep learning en hoe werkt het?

Wat zijn deepfakes?

Deepfake is een samentrekking van deep learning en fake (oftewel nep). Bij deepfake worden beelden op basis van Artificial Intelligence (AI) samengesteld. Anders gezegd: het wordt gebruikt om bestaande afbeeldingen en video te combineren. Dat betekent ook dat we beeld op grote schaal kunnen manipuleren. Zo is het bijvoorbeeld mogelijk om het gezicht van de ene persoon te vervangen met dat van een ander.

Tekst gaat verder onder de afbeelding.

artificial intelligence ai oog computer vision

Beïnvloeding en nepnieuws

Deepfakes hoeven niet noodzakelijk negatief te zijn. Internetavatar Sweetie werd bijvoorbeeld gecreëerd om online pedofielen op te sporen (via Innovation Origins). Er zitten echter vaak wel kwade bedoelingen achter, zoals beïnvloeding. Het probleem met deep fake is natuurlijk dat we een persoon van alles kunnen laten zeggen of doen. Mensen die dit type gemanipuleerde filmpjes onder ogen krijgen, kunnen negatiever gaan denken over die persoon. En omdat je elke foto of video kan gebruiken voor het maken van neppe video’s, is de kans groot dat we steeds meer nepnieuws gaan zien.

Lees ook: Deep fake-video’s kunnen onze mening over een persoon veranderen

Misdaad met deepfakes

Het wordt steeds gemakkelijker om deepfakes te maken, ook voor mensen die eigenlijk helemaal geen verstand hebben van de technologie. Er is soms zelfs slechts een enkele foto voor nodig. Het is daarom aannemelijk dat deepfakes steeds vaker zullen worden ingezet door criminelen. Onderzoekers aan University College London noemen het zelfs een high concern crime. Een voorbeeld: met deepfakes kunnen we ook geluid manipuleren, zoals stemmen. En dat maakt allerlei nieuwe vormen van phishing mogelijk. Zo kun je bijvoorbeeld plots een telefoontje krijgen van je ‘dochter’, die je vraagt om geld over te maken.

Wil je meer weten over de slimme (telecom)oplossingen van 3Bplus? We hebben ons in de afgelopen jaren gespecialiseerd in de nieuwste innovaties op het gebied van telecom en de toepassing van smart-technologie, zoals in smart cities en smart homes. Wij laten je graag de mogelijkheden en de voordelen zien. Neem gerust contact met ons op voor meer informatie.

Meer lezen over dit onderwerp?

Misschien vind je deze artikelen ook interessant:

Schiphol voorkomt vertragingen met video-analyse met deep learning
Historische figuren gefotografeerd met Artificial Intelligence (AI)
Artificial Intelligence ingezet bij detectie tumoren in longen en bloed
De inzet van AI en deep learning bij de analyse van scans

Mis nooit meer een artikel: volg ons op LinkedIn.

Share This