Beeldvorming & nepnieuws Data & technologie

Deepfake

Wat is Syntetishce media? FAQ Mediawijsheid.nl

Deepfake is een verzamelnaam voor software waarmee je nepvideo’s kunt maken die bijna niet van echt te onderscheiden zijn. Met deze software kun je iemand dingen laten zeggen of doen die hij of zij in werkelijkheid nooit gezegd of gedaan heeft. Deepfake is een vorm van wat we synthetische media noemen: media die zijn gemaakt of bewerkt met behulp van een kunstmatige intelligentie.

Deepfake kan het in de toekomst steeds moeilijker maken om te zien of een video echt of nep is. Wat is een deepfake precies en hoe herken je het? En wat zijn de mogelijke gevolgen voor onze samenleving?


Wil je je kennis over nepnieuws op een laagdrempelige manier vergroten? Neem een kijkje op de website isdatechtzo.nl, vol handige tips om zelf uit te zoeken of informatie te vertrouwen is.


Wat is een deepfake?

De naam deepfake is een combinatie van de woorden deep learning en fake (nep). Deep learning is een techniek die valt onder kunstmatige intelligentie. Het zorgt ervoor dat computers nieuwe dingen kunnen leren op basis van grote hoeveelheden data. Het maakt dan niet uit of die data bestaan uit getallen, tekst, geluid of beeld.

Deepfake-software zet dus kunstmatige intelligentie in om nepvideo’s te maken die echt lijken. Dit soort software was vroeger alleen te vinden in dure filmstudio’s in Hollywood, maar is nu steeds vaker gratis te downloaden en te gebruiken.

Hoe worden deepfake-filmpjes gemaakt?
Stel dat iemand een deepfake-video van Mark Rutte wil maken. In dat geval gaat de software video’s waarop Rutte te zien is beeld voor beeld analyseren. Zo leert de software wat de omvang en vorm is van Rutte’s gezicht, hoe de verhoudingen van zijn neus en mond zijn en hoe zijn gezicht beweegt als hij praat.

Zo ontstaat een datamodel van een pratende premier. Dit model kan vervolgens worden toegepast in een nepvideo waarin Rutte bijvoorbeeld zou kunnen zeggen dat de Friezen begonnen zijn om de provincie Groningen binnen te vallen. Dat terwijl hij dit nooit echt heeft gezegd.

Een goed voorbeeld van een overtuigende deepfake-video werd gemaakt door de Amerikaanse nieuwssite Buzzfeed en comedian Jordan Peele. Samen produceerde zij een deepfake-video waarin voormalig president Barack Obama de wereld toespreekt over de gevaren van nepnieuws en dingen die echt lijken, maar het niet zijn.

» Lees ook het dossier over kunstmatige intelligentie

Wat zijn voorbeelden van deepfake?

Het maken van een deepfake wordt steeds makkelijker en de kosten om het te maken steeds lager. Er zijn steeds meer voorbeelden van deepfake te vinden. Van grappige filmpjes zoals deze van Diep Nep waarin Hugo de Jonge opera zingt, tot aan video’s die in de informatieoorlog tussen Rusland en Oekraïne worden ingezet. Hieronder vind je opvallende voorbeelden van deepfakes:

Porno: Op dit moment wordt deepfake-technologie vooral in pornovideo’s. Meer dan 95% van de deepfakes heeft een pornografische inhoud. Denk aan een beroemdheid wiens gezicht op een porno-actrice is geplakt zonder toestemming. Vooral vrouwen zijn slachtoffer van deze nepvideo’s.

Nepnieuws: De meest voor de hand liggende toepassing van deepfake ligt in nepnieuws. Nepnieuws draait om het verspreiden van misleidende informatie. Daar lenen deepfakes zich natuurlijk goed voor. Misbruik van de technologie kan voor verwarring en onrust zorgen.

Zo werd er tijdens de oorlog in Oekraïne een filmpje verspreid waarin de Oekraïense president Zelensky zijn soldaten oproept om hun wapens neer te leggen en zich over te geven aan Rusland. En een ander waarin juist de Russische president Poetin zich overgeeft. VPRO schrijft in dit artikel hoe deepfakes worden ingezet in de informatieoorlog.

Films: Ook zijn er meer onschuldige toepassingen. Zo kan de technologie ingezet worden in de productie van films om (een overleden) acteur een rol in een film te geven. Filmfans gingen al aan de slag met de technologie door acteur Nicolas Cage allemaal rollen te geven in films waar hij nooit in speelde.

Aandacht vragen: Een deepfakevideo kan ook ingezet worden om aandacht te vragen voor een maatschappelijk probleem. In dit filmpje vraagt David Beckham bijvoorbeeld aandacht voor de ziekte malaria. Dankzij de technologie deelt hij zijn boodschap in wel negen talen.

Ook de Correspondent zette een deepfakevideo in waarin Mark Rutte een toespraak houdt over hoe belangrijk hij het klimaat vindt. Hier lees je waarom en hoe zij dat deden.

Deepfake-technologie wordt momenteel vooral ingezet voor het maken van nepvideo’s, maar met vergelijkbare software kan ook geluid bewerkt worden. In 2018 liet Adobe (het bedrijf achter Photoshop) een demo zien waarin ze laten uitleggen hoe ze stemgeluid makkelijk kunnen bewerken (knippen en plakken) en inzetten om ‘fake audio’ te produceren.

» Bekijk het dossier Nepnieuws

Wat zijn de risico’s van deepfakes?

De technologie roept veel vragen op over de gevaren voor de journalistiek en de democratie. Hoe weet je nog wat echt of nep is?

Het grootste risico is dat we niet meer kunnen vertrouwen op feiten. En dat leidt tot ongeloofwaardigheid van media, politici en de democratie.

Met deepfakes kunnen bekende mensen, van acteurs tot wereldleiders, allerlei uitspraken in de mond  gelegd worden die ze nooit hebben gedaan. Beeldvorming, gebeurtenissen en gesprekken kunnen worden beïnvloed en tot grote verwarring over de waarheid leiden. Voorbeelden hiervan zie je terug in de aflevering van Tegenlicht, ‘Zien is geloven’.

‘Zien is geloven’ is niet meer vanzelfsprekend. Nieuwsmedia, zoals het NOS journaal of NU.nl, maken in hun verslaggeving veel gebruik van video’s. Als live-beelden of reportages overtuigend kunnen worden bewerkt met deepfake, kan de betrouwbaarheid van de journalistiek daar onder lijden.

Deepfakes en nepnieuws, zorgen ervoor dat je mensen kunt overtuigen van iets dat nooit heeft plaatsgevonden of iemand nooit heeft gezegd. In het ergste geval zorgt het ervoor dat alles nep zou kunnen zijn.

Media, politiek en democratie zijn in Nederland gebaseerd op hun geloofwaardigheid. Daarom is het belangrijk om te weten hoe je deepfakes en nepnieuws kunt herkennen.

Wat kan er worden gedaan tegen misbruik van deepfake-software?

In Nederland is er nog geen officiële wetgeving over de verantwoordelijkheid of aansprakelijkheid bij het maken of delen van deepfakes.

Sinds eind 2018 is er wel een kabinetsplan om nepnieuws te bestrijden. De overheid gaat de verspreiding van nepnieuws in Nederland onderzoeken en wil de weerbaarheid van burgers vergroten met een bewustwordingscampagne.

De technologie die wordt gebruikt voor het maken van deepfake-video’s, kan ook helpen bij de bestrijding ervan. Door het herkennen van patronen kunnen algoritmes signalen zien die verklappen dat een video nep is. Voorbeelden van dat soort signalen zijn ogen die niet knipperen, het schaduwpatroon van het gezicht en de vervaging van beeldkwaliteit bij armgebaren.

In Nederland werkt Theo Gevers, computerwetenschapper aan de Universiteit van Amsterdam, aan een plug-in voor browsers. Deze moet gebruikers erop wijzen wanneer een video een deepfake is. Het werk van Theo Gevers komt ook aan bod in de aflevering van Tegenlicht over Deep Fake.

Ook platformen als Facebook en Google werken aan oplossingen voor het herkennen van deepfakes.

Dit kun je zelf doen om deepfake-video’s te herkennen

Een kritische blik is voor nu het beste hulpmiddel om deepfakes te herkennen.

1. Let op visuele aanwijzingen
Door jezelf vragen te stellen kun je aanwijzingen in het beeld herkennen die kunnen wijzen op een deepfake:

  • Maakt de mond onnatuurlijke bewegingen?
  • Beweegt de mond in lijn met de rest van de gezichtsuitdrukking?
  • Knippert de spreker niet met zijn ogen?
  • Zitten er ‘vervaagde’ pixels in het beeld?
  • Wat kun je nog meer zien van het lichaam van de spreker en klopt dat met de bewegingen die het hoofd maakt?

Maak het jezelf makkelijker door de video vertraagd af te spelen, dan vallen eventuele eigenaardigheden nog meer op.

» In het dossier Mediawijs met beeld vind je meer tips om kritisch en bewust naar beelden te kijken

2. Let op de bron van de video
Wie is de afzender van de video? Is het een bekende nieuwsbron zoals de BBC of de NOS of is de afzender onbekend? Een onbekende afzender kan een eerste aanwijzing voor onbetrouwbaarheid zijn.

Is de afzender wel zichtbaar, maar ken je zelf de naam niet? Probeer dan meer te weten te komen over de afzender. Is er een website met informatie over de redactie en contactgegevens? Heeft de afzender een geverifieerd account op sociale media? Verzamel zoveel mogelijk bewijsstukken over de (on)betrouwbaarheid van de bron.

» Kijk voor meer tips over het vinden van betrouwbare informatie in het dossier Informatievaardigheden

3. Waar staat de video nog meer?
Is de video te vinden op meerdere plekken of alleen op de website waar je de video tegenkwam? Zoek via DuckDuckGo, Google en YouTube naar de video en bekijk hoe de video daar wordt gepresenteerd.

Of zoek op het onderwerp: als er een nieuwswaardig onderwerp in de video centraal staat (bijvoorbeeld een pikante uitspraak van een politicus) dan zullen andere media dit nieuws ook brengen. Probeer het onderwerp van de video te bevestigen via meerdere bronnen.

» Wil je zelf eens een deepfake video maken? VPRO maakte deze toolkit waarmee je direct aan de slag kunt met synthetische media
» Met de tips en tools in het dossier Nepnieuws kun je aan de slag met het herkennen van nepnieuws

Veelgestelde vragen

Hoe makkelijk is het om zelf een deep fake te maken?

Niet zo makkelijk. Ten eerste is er veel beeldmateriaal, van de persoon waarvan een deep fake gemaakt wordt, nodig om de software ‘te trainen’. Ten tweede kost dat trainen tijd en is een krachtige computer nodig met veel rekenkracht. Dit zal op termijn wel steeds goedkoper en makkelijker worden.

Let op: er circuleren downloads naar software om deep fakes te maken, maar die blijken in sommige gevallen virussen en malware te bevatten.

 

Deepfakes, voice cloning en nepfoto’s: dit moet je weten over synthetische media

Synthetische media zijn media die gemaakt of bewerkt zijn met behulp van kunstmatige intelligentie, ook wel AI genoemd. Dat kan gaan om foto’s, video’s, geluid en tekst. Denk aan een deepfake-video van Mark Rutte, schilderijen gemaakt met Midjourney of een tekst geschreven door ChatGPT.

Deze vorm van AI wordt ook wel ‘generatieve AI’ genoemd, omdat het zelf beelden, woorden en geluiden ‘genereert’, of maakt.

Synthetische media maken veel mogelijk, denk bijvoorbeeld aan:

  • oude familiefoto’s tot leven brengen
  • acteurs in een film laten spelen, zonder dat ze op de set aanwezig hoeven te zijn
  • een virtuele assistent als Siri of Google Assistent een stem geven
  • kunstmatige nieuwslezers en influencers creëren
  • nieuwe vormen van kunst

Deepfake

Een bekend voorbeeld van synthetische media zijn deepfakes. Dat zijn heel realistische nepvideo’s, waarin je iemand bijvoorbeeld iets kunt laten zeggen dat diegene nooit heeft gezegd.

» Lees er meer over in het dossier Deepfake

Voice cloning

Bij voice cloning (of stemklonen) wordt met behulp van kunstmatige intelligentie een synthetische kopie van iemands stemgemaakt. Hiervoor is enkel een korte opname van de stem van die persoon nodig. De gekloonde stem kan heel echt lijken. De technologie werkt zo goed dat je de gekloonde stem alles kunt laten zeggen, op uiteenlopende tonen.

Wat zijn de risico’s van synthetische media?

Deze media kunnen ook ingezet worden voor andere, meer schadelijke doeleinden. Denk aan deepfakes waarmee beroemdheden of politieke figuren woorden in de mond gelegd worden. Of aan andere manieren om mensen voor de gek te houden, bijvoorbeeld met politieke of financiële belangen. Ook voice cloning kan gebruikt worden voor schadelijke doeleinden, zoals oplichting.

» Wat moet ik weten over oplichting met ‘voice cloning’?

De technologie wordt steeds makkelijker te gebruiken en steeds lastiger te herkennen. Het is dan ook belangrijk te weten hoe synthetische media ingezet kunnen worden en hoe je ze herkent. Zodat je niet op het verkeerde been wordt gezet.

» Lees het dossier Kunstmatige intelligentie met meer informatie en tips om met AI om te gaan
» Ga aan de slag met beeldgeletterdheid, in het dossier Mediawijs met beeld
» Lees ook dit artikel waarin technologie-expert Jarno Duursma vertelt over de mogelijkheden van synthetische media

Wat is deep learning?

Deep learning is een nieuwe naam voor wat in de computerwetenschap bekend staat als ‘neurale netwerken’. Het doel is om de manier waarop het menselijk brein leert, na te bootsen. Deep learning stelt computers dus in staat om nieuwe dingen te leren van grote hoeveelheden data, waarbij het niet uitmaakt of die data bestaan uit getallen, tekst, geluid of beeld.

Zo kreeg Google het voor elkaar om op basis van duizenden video’s op YouTube een algoritme te laten ontdekken wat een kat is, zonder dat Google ooit specifiek heeft uitgelegd wat een kat is en hoe die te herkennen is.

Wat is deep fake porno?

De technologie deep fake kreeg in eerste instantie bekendheid toen een gebruiker op internetforum Reddit de technologie gebruikte om pornografisch materiaal te maken.

Bij ‘deep fake porno’ worden de gezichten van bekende mensen op het lijf van een pornoactrice geplakt. Dat overkwam actrice Emma Watson (uit Harry Potter). De platformen waarop dit materiaal gedeeld werd, grepen snel in en hebben de video’s als ‘ongewenst’ bestempeld en dus verboden.

Specifieke wetgeving is er niet op dit gebied. Volgens ICT-jurist Arnold Engelfriet sta je als mogelijk slachtoffer van deep fake porno in Nederland sterk omdat het valt onder de geautomatiseerde verwerking van persoonsgegevens. Daarvoor is uitdrukkelijke toestemming nodig en daarvan is in dit soort gevallen geen sprake.

Meer weten?

Wil je meer informatie over beeldgeletterdheid, dan helpen deze organisaties je op weg:

Organiseert debatten en evenementen over actuele onderwerpen

Helpt docenten nieuwsmedia in hun lesprogramma te verwerken

Begrijpend lezen en rekenen met het nieuws van de dag

Probeert zoveel mogelijk mensen immuun maken voor misleiding en polarisatie door desinformatie

Verbetert de veiligheid van sociale media als bron