Bewegend beeld van jouw hoofd op het lichaam van een ander... Deepfake-video’s komen steeds vaker voor, zien er steeds echter uit en dat is doodeng.
Techniek
Dionne Stax had laatst sex in een video op Pornhub. De nieuwslezeres was naakt, volledig herkenbaar en genoot zichtbaar. Spoiler: het was niet écht Dionne Stax, maar haar hoofd was op het lichaam van een pornoactrice geplakt. Een flink staaltje vakwerk, want het zag er levensecht uit. “We kunnen steeds beter video’s manipuleren”, vertelt Eric Postma, hoogleraar kunstmatige intelligentie aan de Tilburg University. “De techniek die een paar jaar geleden is ontwikkeld, wordt steeds verfijnder en wordt ook steeds vaker gebruikt.” En door die techniek is het verdomd moeilijk om vanaf je bank te zien of de beelden echt of nep zijn.
Hoe werkt het?
First of all, wat is deepfake precies? Het is een combi tussen de woorden deep learning en fake (nep, dus). Deep learning is een techniek die is ontstaan door kunstmatige intelligentie: machines met het vermogen om beelden te herkennen. Computers en telefoons zijn op die manier een pro geworden in bijvoorbeeld het herkennen van gezichten, denk aan je iPhone die je met je eigen gezicht kunt ontgrendelen door er alleen maar naar te kíjken. “En als apparaten je gezicht kunnen herkennen, dan kunnen ze er óók een ander gezicht op plakken”, zegt Postma. “Zelfs als het beeld beweegt.” Een andere populaire deepfake-techniek is dat computers bewegingen kunnen herkennen, waardoor een bestaand filmpje kan worden gemanipuleerd. Je verandert dan niet de persoon in het filmpje, maar laat die persoon iets anders doen dan-ie daadwerkelijk deed. En dat kan van alles zijn. You name it.
Appeltje-eitje
Er zijn ongeveer twintig verschillende methodes om zo’n video te maken. En er komen er steeds meer bij. Vroeger werden die technieken alleen in Hollywood gebruikt (denk: E.T, Star Wars, heel veel Disney-creaties), maar those days are over. Iedereen die ook maar een beetje computer savvy is weet thuis vanaf zijn eigen laptop de laatste jaren deepfake-software steeds beter te vinden, te downloaden en te gebruiken. En misschien ook wel te misbruiken, zoals in het geval van Dionne Stax. “Dat is heel zuur, dat je op die manier slachtoffer wordt van deepfakes”, stelt Postma. “En het gaat vaker voorkomen, daar ontkomen we niet aan. Eerst was het iets van slimme wetenschappers, daarna iets wat goede filmmakers konden, en nu kunnen pro’s het dus gewoon thuis.” Zo is er de Chinese app Zao, waarmee je zelf, op je iPhone, nepfoto’s en nepvideo’s kan produceren. Aan de ene kant vermakelijk om jezelf – of je vriendinnen – in een heftige zoenscène met Johnny Depp of Leonardo te shoppen.
Dromen zijn ineens niet meer zo bedrog. En wat te denken van Skype, of videobellen? “We kunnen in de nabije toekomst in bewegend beeld ons haar er net wat beter uit laten zien”, voorspelt Postma. “Of onze onrustige huid nét wat egaler maken als je facetimet met een date.” Ook gaan er geregeld heerlijke deepfakes viral die duidelijk een gimmick zijn. Trump is een populair slachtoffer. Hilarisch, denk je even in: het hoofd van de president op dat van een meisje in het programma Toddlers and Tiaras. Of het gezicht van de president op het lichaam van de Duitse bondskanselier Angela Merkel (hahaha). Een ander fijn viral-voorbeeld: een video van acteur Nicolas Cage in de rol van Lois Lane in de film Superman (again: hahaha). De twee laatstgenoemde deepfakes zijn mede mogelijk gemaakt door de app FakeApp – we thank you.
Misbruik
Maar de medaille heeft, zoals altijd, twee kanten. Er wordt ook misbruik gemaakt van de techniek. Er werd onlangs zelfs al de eerste misdaad gepleegd die is aangezet door een deepfake – weliswaar een stem, maar toch. Eind augustus kwam The Wall Street Journal met het verhaal over een medewerker van een Britse verzekeringsmaatschappij die werd gebeld door zijn baas. Of hij even 220.000 euro naar een rekeningnummer in Hongarije wilde overmaken. De medewerker deed dat, onder het mom van ‘het moet van de baas’, maar het was helemaal niet zijn baas die belde. Criminelen zouden volgens deep-learning-software de stem van de directeur hebben nagebootst. “Deepfake-video’s kunnen ook worden gebruikt in landen waar propaganda heel normaal is”, zegt Postma. “Je kunt mensen tegen elkaar opzetten, politici kunnen hun volk laten geloven wat ze willen.” Er zijn ook filmpjes die misschien wel als grap zijn bedoeld, maar niet heel duidelijk als een grap overkomen. Zo ging er een filmpje de ronde van president Obama, waarin het lijkt alsof hij Trump een ‘total and complete dipshit’ noemt. Werk van de Amerikaanse komiek Jordan Peele, die de video insprak, maar ook discutabel. Postma: “Op die manier kun je mensen tegen elkaar uitspelen.”
Kapot maken
Moeten we ons zorgen maken? Alexander Pleijter, universitair docent online journalistiek in Leiden, vindt dat moeilijk in te schatten. “Mensen die ineens in pornofilmpjes verschijnen waar ze niets vanaf weten, dat zijn heel nare dingen. Daar kun je mensen kapot mee maken. Maar het is niet zo dat dat nu, met bewegend beeld, al heel veel voorkomt. Je moet alsnog heel goed zijn, wil je zo’n video er geloofwaardig uit laten zien.” “Dat je over twee jaar een video kan ontvangen waarin een vriendin dingen over je zegt die ze nooit écht over je heeft gezegd, klinkt nu heel eng”, zegt Postma. “Maar het is vooral eng omdat
het nieuw is.” Het probleem met de deepfake-trend, is dat je niet weet hoe groot het wordt, zegt Pleijter. “Nu moet je er nog wel redelijk wat moeite voor doen wil je écht geloofwaardig overkomen. Het is veel makkelijker om een tekstje te verzinnen en een foto te shoppen, dan beeldmateriaal zó te manipuleren dat iedereen, ook experts of criticasters, erin trappen.” Pleijter herinnert zich nog dat er veel discussie was, toen Photoshop op de markt kwam: zal iedereen nu massaal foto’s gaan manipuleren? “Toen waren mensen ook heel bang.”
Rookwolkje erbij
De ophef was bijvoorbeeld ook groot toen een fotograaf van het gerenommeerde persbureau Reuters een foto van een bombardement had gefotoshopt. Hij had de rookwolken in de lucht veel groter gemaakt – om de foto van een groter vleugje drama te voorzien. Door dat soort dingen zijn redacties heel strikt geworden in hun fotobeleid, weet Pleijter. Heel veel fotografen moeten nu hun oorspronkelijke beeldmateriaal toesturen. Foto’s wat lichter maken of spelen met het contrast, dat mag, maar fotografen mogen geen dingen verwijderen of toevoegen aan het beeld. Waar Pleijter écht bang voor is, is het misbruiken van beeld, waarbij een video bijvoorbeeld van een andere context wordt voorzien. “Stel, je hebt een video van rellen in Parijs, en je zet die op Facebook met de tekst ‘Moet je zien wat er gisteren in Amsterdam is gebeurd!’ En familie en vrienden reageren eronder, en dat wordt weer gezien en gedeeld. Dan heb je een steeds groter wordende olievlek die nog moeilijk tegen te houden is. Vooral als je er ook nog een etniciteit bij zet, om andere volken zwart te maken. Dat kan voor verdeling zorgen.” Maar, zegt Pleijter ook: Nederlanders zijn zich daar bewust van. Het ministerie van Binnenlandse Zaken voerde onlangs de publiekscampagne ‘Eerst checken, dan klikken’, die duidelijk maakt dat je niet alles moet geloven. “Uit onderzoek achteraf bleek dat die spotjes weinig effect hebben gehad”, zegt de hoogleraar. “Want de mensen waren al heel erg kritisch.” Net als het medialandschap in Nederland. “Journalisten tikken elkaar op de vingers. En dat is goed, want dat zijn toch degenen die aan waarheidsvinding moeten doen.”
Wat kunnen we doen?
Waarheidsvinding. Mooi woord. Kunnen we dat zelf ook? Kunnen we zelf checken of een video echt is of niet? “Teruggaan naar de bron is het eerste advies dat ik wil geven”, zegt Pleijter. Welke site plaatste de video als eerst, hoe betrouwbaar is die? Is het een erkende nieuwssite, of een satirische blog? Je kunt via Google de url van een foto uploaden en dan gaat Google zoeken of hij soortgelijke foto’s ergens anders op internet terugvindt. Dan kun je checken of het een oude foto is die bewerkt is. “Dat kun je ook met screenshots van video’s doen.” Pleijter raadt aan om, behalve Google, ook Yandex Search te gebruiken (de Russische Google). “Die is nog beter.” Een andere handige tool is de Youtube Data Viewer. Daarin kun je de url van een YouTube-video plakken, en dan gaat de viewer kijken of er eerdere, of andere versies van die video zijn verschenen. “Echt goede deepfakes herkennen is wel ingewikkeld”, erkent Postma. “Als het echt goed is gedaan, moet je echt een expert zijn om het te kunnen ontmantelen.” Maar zowel Postma als Pleijter verwachten dat er ook weer tools komen om fake-video’s te ont- mantelen. “Er komt zeker een service voor”, zegt Postma. “Er komt altijd een tegenbeweging.” Bovendien, we zijn niet achterlijk. “We kunnen misschien niet meer echte van nepvideo’s onderscheiden, maar we slikken ook niet alles zomaar voor zoete koek. En hoe meer we bekend raken met kunst- matige intelligentie en deepfakes, hoe kritischer we worden. Onze maatschappij is er nu nog niet aan gewend, maar die gaat zich wel snel aanpassen. En wij dus ook.”
Tekst: Lisanne van Sadelhoff | Beeld: BSR