Deepfakes steeds realistischer en daardoor gevaarlijker

Deepfakes steeds realistischer en daardoor gevaarlijker

We moeten de effecten niet onderschatten

Vorig artikel Volgend artikel

Weet jij nog echt van nep te onderscheiden? Deepfake filmpjes zijn zo realistisch dat we massaal het verschil niet meer zien. Dit blijkt uit onderzoek van de UvA (Universiteit van Amsterdam). En dat we die deepfakes voor waar aannemen is zorgelijk. Het heeft namelijk invloed op hoe we over iemand of een situatie denken. Zeker nu er allerlei complottheorieen de ronde doen is het slim om extra waakzaam te zijn op deepfakes. Die zijn namelijk zo realistisch dat je misschien iets voor waar aanneemt terwijl de video helemaal niet echt is. We leggen je uit hoe dit werkt.

Gemanipuleerde video's

Deepfakes zijn video's die op de een of andere manier door een algoritme zijn gemanipuleerd. Om uit te vinden welk effect de fake filmpjes hebben (en of we nep van echt weten te onderscheiden) maakten onderzoekers van de UvA een deepfake-video van CDA-politicus Buma. Ze lieten hem controversiële uitspraken doen, terwijl hij deze nooit echt heeft gezegd. Een panel van 287 mensen kreeg het filmpje vervolgens te zien en moest aangeven of zij het geloofwaardig vonden en of ze na het zien ervan anders dachten over de politicus en zijn partij.

De video bleek heel realistisch over te komen, ondanks dat het een kort filmpje was en de kwaliteit ervan niet optimaal. Onderzoeker Nadia Metoui: "We waren in een korte periode en met relatief beperkte middelen in staat om een deepfake-video te maken die door de meeste deelnemers van ons experiment als echt werd beschouwd."

We trappen er massaal in

Weinig mensen twijfelden dus aan de echtheid van het filmpje. De manipulatie was dus goed gelukt, zo vertelt UvA-onderzoek Tom Dobber aan NOS. "En deze (het fimplje, red.) was niet eens perfect, je zag af en toe dat de lippen gek bewogen. Het is opmerkelijk dat mensen er vol intrappen." In het onderzoek werd gekeken naar de effecten van microtargeting. Het betreffende filmpje werd getoond aan een specifieke doelgroep. Dat principe wordt veel toegepast via social media. Mensen worden in steeds kleinere groepen opgedeeld om ze online heel gericht te bereiken. En dat is gevaarlijk, want deze betrokken groep kan het filmpje dan breder verspreiden waarna het 'nieuws' groots wordt opgepikt.

Zelfs als de valse beweringen later weerlegd of ontkracht worden, worden tegenargumenten voornamelijk in de brede media besproken en niet op de sociale media alwaar het kwaad is geschied, aldus de onderzoekers van de UvA. Er gaat een gezegde in het Engels: ‘Leugens hebben vleugels terwijl de waarheid er achteraan hinkelt’.

Dit was het eerste onderzoek dat een deepfake maakte (met stem en beeld) en het effect ervan op mensen onderzocht. De volgende stap is het maken van een langere en betere deepfake en die te combineren met mogelijke maatregelen om de negatieve effecten van de deepfake in te perken. Bijvoorbeeld: helpt het mensen er één te herkennen door ze te informeren over de eigenschappen van een deepfake?
- Onderzoeker Tom Dobber

Opsporen deepfakes

Op social media worden deepfakes opgespoord en verwijderd. Maar dat is nog niet zo gemakkelijk. Facebook geeft er, zeker met de presidentsverkiezingen in het vooruitzicht, al prioriteit aan. Zij kondigden aan polititieke advertenties niet te factchecken, maar wel een strategie te ontwikkelen om deepfakes nog beter op te sporen en verwijderen. Toch blijkt dat nogal lastig te zijn. Omdat deepfakes weinig worden onderzocht zal de verspreiding ervan nog wel even doorgaan. En om de video's te maken hoef je echt geen professional te zijn. Een simpele app stelt zo'n beetje iedereen in staat om een deepfake video te maken. De UvA is een van de instituten die het voortouw neemt om er meer onderzoek naar te doen.

Ironisch genoeg blijkt het beste wapen tegen deepfakes het gebruik van kunstmatige intelligentie (AI), zo lezen we in het persbericht. Zulke algoritmen herkennen namelijk gemanipuleerd beeld en geluid, terwijl het voor een mens onmogelijk zou zijn om echt van nep te onderscheiden. Lees hier meer over de resultaten van het onderzoek.

Tot slot delen we graag nog wat aanvullende informatie met je uit het onderzoek. Wees zelf altijd alert op deepfakes, voor je het weet kijk of verspreid je fake news. En dat kan, zeker in deze tijd, heel schadelijk zijn.

Er zijn verschillende redenen om aan te nemen dat diepgaande desinformatie een schadelijke maatschappelijke impact kan hebben, en daarom is het wetenschappelijk onderzoek waard om de effecten van diepgaande desinformatie te bestuderen. Ten eerste kunnen deepfakes realistische desinformatie zijn. Automatisch gegenereerde afbeeldingen en geluiden kunnen net zo overtuigend zijn als echte geluiden en afbeeldingen. Een gewone burger kan moeite hebben om feit van fictie te onderscheiden. Ten tweede kunnen deepfakes worden gebruikt om bestaande misinformatie te versterken. Een producent zou een diepe fake video kunnen creëren waarbij je de paus wordt ziet en hoort om Donald Trump te steunen, of een volksgezondheidsfunctionaris die ogenschijnlijk gezien en gehoord heeft en bevestigt dat vaccinaties inderdaad autisme veroorzaken. Ten derde kunnen deepfakes ook een vorm van efficiënte desinformatie zijn. Als een politieke acteur over voldoende trainingsgegevens beschikt, kan deze in korte tijd veel verschillende, realistische deepfakes van dezelfde persoon maken. In combinatie met politieke microtargeting (PMT) -technieken kunnen deepfakes bijzonder impactvol zijn. We zijn er nog niet. Deepfakes overspoelen de publieke sfeer nog niet, laat staan ​​microtargeted deepfakes. Maar (microtargeted) deepfakes hebben kenmerken dat ze in de nabije toekomst potentieel zeer krachtige vormen van desinformatie maken.
- Informatie uit het onderzoek van de UvA
Irene Boskma

Irene is tekstschrijver en blogger. Naast schrijven vindt ze het leuk om uitgebreid te koken en bakken, hard te lopen en op reis te gaan. Of dat nu korte...

Reageren is uitgeschakeld omdat er geen cookies opgeslagen worden.

Cookies toestaan Meer informatie over cookies