
NU+ De paus in een pufferjas: zo herken je AI-beelden die levensecht lijken
Op sociale media kwam je hem de afgelopen week vaak tegen: een foto van paus Franciscus op straat. In een hippe witte pufferjas met daaroverheen een grote ketting en een zilveren kruis. In zijn rechterhand een koffie voor onderweg.
Op Twitter werd het plaatje twintig miljoen keer bekeken. Het sociale netwerk plaatste er later een label bij. Daarop staat dat de afbeelding niet echt is en werd gemaakt met de kunstgenerator Midjourney.
Dat programma kreeg recent een update, waarna hij veel realistischere plaatjes kan maken. Het leverde ook zogenaamde foto's op van de arrestatie van de Amerikaanse oud-president Donald Trump en die van de voormalige Britse premier Boris Johnson.

Ontwikkelingen van AI-kunst nemen een hoge vlucht
"Het wordt steeds beter en overtuigender", zegt AI-deskundige Mark Evenblij van DuckDuckGoose. Dat is een Nederlands bedrijf dat werkt aan manieren om deepfakes te herkennen. "De ontwikkelingen gaan razendsnel, over een half jaar kunnen de resultaten weer veel beter zijn dan nu."
Dat maakt het lastiger om neppe afbeeldingen te herkennen. Maar vooralsnog is er een aantal dingen waarmee de software moeite heeft. Die kunnen erop wijzen dat een plaatje door kunstmatige intelligentie is gemaakt.
Soms is het duidelijk. "Een bril die in het luchtledige oplost, dat kan niet", zegt Evenblij. "Vaak zijn ook reflecties in ogen een goede indicatie. In deepfakes verschillen de reflecties in het linker- en rechteroog vaak. Als je dat ziet, kan het wijzen op een nepafbeelding."
Maar afwijkende reflecties zijn nog geen definitief bewijs. Het kan zijn dat er net een lamp hangt die in het ene oog wel reflecteert en in het andere oog niet. "Het gaat vaak om een optelsom van afwijkingen", zegt de AI-deskundige.
Smeltende patronen en brabbeltaal
"Je ziet het ook aan patronen die samensmelten", legt Evenblij uit. "Een hoed die overgaat in het haar of de huid van een gezicht. Ook hebben AI-modellen moeite met letters, waardoor teksten op kleding bijvoorbeeld niet kloppen."
Dat is zichtbaar op de arrestatieplaatjes van Trump en Johnson. Op kleding en petten staat brabbeltaal. Ook met handen heeft de computer vaak moeite. Mensen hebben meer dan eens zes vingers en soms zit de verkeerde hand aan de verkeerde arm.
Dat gebeurt bijvoorbeeld op onderstaand plaatje. Het lijkt levensecht, tot je beseft dat de duim aan de verkeerde kant zit. Op het plaatje van de paus en de arrestatie van Johnson kun je eveneens aan de handen zien dat het nep is.

Nepvideo's en -geluiden
Er worden ook realistischere deepfakes gemaakt van video's en audio. Met programma's kun je bijvoorbeeld het gezicht van een beroemdheid over je eigen gezicht leggen. Zonder vertraging reageert het nepgezicht vervolgens op jouw bewegingen. In videogesprekken is de boel op deze manier overtuigend te neppen.
Maar als je weet waar je op moet letten, kun je het wellicht herkennen. "Als iemand knippert, zie je het nepgezicht vaak heel even iets kleiner worden", zegt Evenblij. "Ook zijn er grenzen aan het masker. Draait een persoon zijn hoofd te ver, dan ontstaat er vervorming. Je zou dus kunnen vragen of iemand even naar links en rechts wil draaien."
Bestaan er opnames van een stem, dan is er niet veel nodig om iemand dingen te laten zeggen die diegene nooit heeft uitgesproken.
Dit soort deepfakes zijn lastiger te ontmaskeren. "Je hoort het vaak nog aan de intonatie die net niet menselijk is", zegt Evenblij. "Er is ook software die kan oppikken of iets bestaat of niet. Hoe beter de geluidskwaliteit, des te meer informatie er is om te controleren."

Channel 4 zendt deepfake kersttoespraak koningin uit
Channel 4 zendt deepfake kersttoespraak koningin uit
Gevaar op fraude ligt op de loer
Kunstmatige intelligentie zorgt ook voor positieve ontwikkelingen. Zo kan het helpen bij rouwtherapie en traumaverwerking. Of het kan mensen die niet kunnen praten een stem geven. Maar gevaar ligt ook op de loer.
"Het is nu al mogelijk een stem na te doen en telefoontjes te neppen", zegt Evenblij. "In de Verenigde Staten hebben we al voorbeelden gezien van hyperrealistische stemdeepfakes om fraude te plegen. Een crimineel kan zich voordoen als de kleinzoon van een oma en haar opbellen met de boodschap dat hij snel geld nodig heeft. Mensen zullen door dit soort dingen serieus geld gaan verliezen."
Overheden werken aan regelgeving om de ontwikkeling van kunstmatige intelligentie op een veilige manier te leiden. Maar ook organisaties en bedrijven zelf zouden moeten nadenken over ethisch gebruik van AI, zegt Evenblij. "Het gaat niet meer weg, dus we moeten manieren vinden om ermee om te gaan."
Ga gratis verder
Log in of registreer gratis op NU.nl en krijg toegang tot extra artikelen
NUjij: Uitgelichte reacties