Acteurs Tom Cruise, Robert Downey Jr., Ewan McGregor, Jeff Goldblum en Star Wars-bedenker George Lucas zitten, schijnbaar dronken, aan tafel met een journalist van de website Collider. Maar kijk je iets beter, dan valt opeens op dat het gezicht van Goldblum te groot is in verhouding tot zijn lichaam. De video is nep.

Dit filmpje is een deepfake, een opname van een aantal mensen met de gezichten van iemand anders er digitaal opgeplakt. De technologie is sinds 2017 in opmars. Dit jaar staan veertienduizend deepfakes op videosites, beraamde het Nederlandse cybersecuritybedrijf Deeptrace: alweer twee keer zoveel als een half jaar eerder.

Een levensgroot probleem voor de samenleving, kopten de media. Straks weet niemand meer zeker of een video van een politicus die harde uitspraken doet echt is of niet.

De toekomstige risico's voor verregaande desinformatiecampagnes waarin deepfakes worden gebruikt, zijn groot, waarschuwen experts. Makers van deepfakes wisten al succesvol de Amerikaanse presidenten Barack Obama en Donald Trump na te doen. De technologie lijkt elke paar maanden een grote sprong vooruit te maken.

Nog vooral porno, minder politiek

Vooralsnog is dat voornamelijk voor porno, concludeerde Deeptrace. Van alle deepfakes is 96 procent porno, waarbij het gezicht van een bekende actrice of zangeres op pornografisch materiaal is geplaatst. Overigens alleen bij vrouwen - Deeptrace ontdekte geen deepfakeporno met mannelijke acteurs.

Deepfakes zelf veroorzaakten tot nu toe nog geen echte politieke problemen. Maar het bestaan van de technologie ondergraaft nu al het vertrouwen in het beeld.

Neem het Afrikaanse land Gabon, waar grote verwarring ontstond toen een vreemd filmpje van president Ali Bongo de rondte deed rond nieuwjaar. Bongo was een tijd zonder verklaring afwezig geweest - nu oogde hij in het filmpje vreemd, knipperde nauwelijks, en bleef zitten.

Onderzoekers vonden geen bewijs dat het daadwerkelijk om een deepfake ging. Het Gabonese leger dacht echter aan een doofpotaffaire. Daarop volgde een gefaalde couppoging.

Nixon praat over mislukte maanlanding in overtuigende deepfake
46
Nixon praat over mislukte maanlanding in overtuigende deepfake

Deepfakes worden steeds beter

Er wordt zowel in afgezonderde softwarelaboratoria als op publieke programmeerfora gewerkt aan verbeterde technologie om deepfakes te maken. Dat gaat in rap tempo.

Zo slaagde het kunstmatige-intelligentielab van Samsung er in mei dit jaar in om op basis van slechts één foto een deepfake te maken. Samsung wist daarmee onder andere Albert Einstein en de Mona Lisa tot leven te wekken.

Er zijn veel methoden om een deepfake te maken, maar allemaal werken ze door een kunstmatige intelligentie te trainen op beeld. Meestal wordt gebruikgemaakt van grote databases van foto's van dezelfde persoon in verschillende poses. Daaruit genereert de software een digitaal gezicht, dat weer op een video geprojecteerd kan worden.

Maar een bedrijf als Samsung ontwikkelt dus algoritmen die minder informatie nodig hebben. De Samsung-intelligentie werd eerst aangeleerd hoe menselijke gezichten bewegen. Daarna had het alleen nog de hoofdkenmerken van een gezicht - de vorm van de ogen en de neus, bijvoorbeeld - nodig om een overtuigende deepfake te maken.

Tot nu toe zijn deepfakes nog steeds redelijk goed te onderscheiden van echt. De algoritmen zijn niet perfect, en je ziet nog vaak verschillen op het gebied van kleur, vorm of licht - zoals in het filmpje van Collider. Collider gebruikte een 'face swap', een soort projectie van een ander gezicht op een bestaand gezicht, maar die projectie stopt bij de randen van het gezicht: daar zie je vaak problemen.

Menselijk oog

Komt er een moment dat het menselijke oog een deepfake niet meer kan herkennen? Experts maken zich daar zorgen over. Daarom werken veel bedrijven en wetenschappers al aan algoritmen die deepfakes op basis van kleine pixelveranderingen kunnen herkennen.

Maar ook pornosites als Pornhub en sociale media als Twitter trekken ten strijde tegen de deepfake. Pornofilmpjes waarin het gezicht van iemand anders op de actrice wordt geplakt, mogen op die sites niet meer geplaatst worden. De reden: de eigenaar van dat gezicht heeft niet ingestemd met het filmpje. En dat mag niet.

Toch lijkt het een race tegen de klok. Er verschijnt steeds meer, steeds gemakkelijker te gebruiken software om deepfakes te maken online. Ook voor de lol: Snapchat experimenteert met een speciale Cameo-functie, die een deepfakeanimatie van je gezicht maakt.

Hoe lang duurt het voordat deepfakes écht een probleem worden? Volgens Hao Li, een wetenschapper die als een van de eersten een geloofwaardige deepfake maakte, komt het moment snel. Hij verscheen in september in het Amerikaanse programma Deep Lunch met een duidelijke boodschap: consumenten kunnen "binnen een jaar" realistische deepfakes verwachten.