Logo NU.nlNU.nl
  • Voorpagina
  • Net binnen
  • Populair
  • Algemeen
  • Economie
  • Sport
  • Media en Cultuur
  • Achterklap
  • Shop
  • Voorpagina
    • Net binnen
    • Meest gelezen
    • Oorlog Oekraïne
    • Binnenland
    • Buitenland
    • Algemeen
    • Politiek
    • Uit andere media
    • Video
    • Podcast
    • Weer
  • Economie
    • Klimaat
    • Tech
    • Wonen
    • Geld
    • Werk
    • Auto
    • Aandelen
  • Sport
    • Voetbal
    • Formule 1
    • Scorebord
    • Sportspellen
  • Media en cultuur
    • Films en series
    • Muziek
    • Boek en cultuur
    • Media
    • Achterklap
    • Koningshuis
    • TV gids
  • Overig
    • Het Woord
    • Kind en Gezin
    • Dieren
    • Eten en drinken
    • Gezondheid
    • NUcheckt
    • Opmerkelijk
    • Wetenschap
    • Over NU.nl
    • NUfolder
    • NUshop
    • Tickets
Zondag 4 juni 2023 | Het laatste nieuws het eerst op NU.nl
AI Paus

NU+ De paus in een pufferjas: zo herken je AI-beelden die levensecht lijken

Door Rutger Otto

01 apr 2023 om 05:09Update: 2 maanden geleden
nujij comment69 reacties
Delen via WhatsAppWhatsAppDelen via FacebookFacebookDelen via TwitterTwitterDelen via LinkedInLinkedInDelen via E-mailE-mail
De arrestatie van Donald Trump en Boris Johnson en de paus in een pufferjas. Afbeeldingen die met kunstmatige intelligentie worden gemaakt, zijn bijna niet meer van echte foto's te onderscheiden. Maar met een geoefend oog kom je een heel eind.

Op sociale media kwam je hem de afgelopen week vaak tegen: een foto van paus Franciscus op straat. In een hippe witte pufferjas met daaroverheen een grote ketting en een zilveren kruis. In zijn rechterhand een koffie voor onderweg.

Op Twitter werd het plaatje twintig miljoen keer bekeken. Het sociale netwerk plaatste er later een label bij. Daarop staat dat de afbeelding niet echt is en werd gemaakt met de kunstgenerator Midjourney.

Dat programma kreeg recent een update, waarna hij veel realistischere plaatjes kan maken. Het leverde ook zogenaamde foto's op van de arrestatie van de Amerikaanse oud-president Donald Trump en die van de voormalige Britse premier Boris Johnson.

De gegenereerde arrestatie van Boris Johnson bevat een aantal foutjes.

Ontwikkelingen van AI-kunst nemen een hoge vlucht

"Het wordt steeds beter en overtuigender", zegt AI-deskundige Mark Evenblij van DuckDuckGoose. Dat is een Nederlands bedrijf dat werkt aan manieren om deepfakes te herkennen. "De ontwikkelingen gaan razendsnel, over een half jaar kunnen de resultaten weer veel beter zijn dan nu."

Dat maakt het lastiger om neppe afbeeldingen te herkennen. Maar vooralsnog is er een aantal dingen waarmee de software moeite heeft. Die kunnen erop wijzen dat een plaatje door kunstmatige intelligentie is gemaakt.

Soms is het duidelijk. "Een bril die in het luchtledige oplost, dat kan niet", zegt Evenblij. "Vaak zijn ook reflecties in ogen een goede indicatie. In deepfakes verschillen de reflecties in het linker- en rechteroog vaak. Als je dat ziet, kan het wijzen op een nepafbeelding."

Maar afwijkende reflecties zijn nog geen definitief bewijs. Het kan zijn dat er net een lamp hangt die in het ene oog wel reflecteert en in het andere oog niet. "Het gaat vaak om een optelsom van afwijkingen", zegt de AI-deskundige.

Smeltende patronen en brabbeltaal

"Je ziet het ook aan patronen die samensmelten", legt Evenblij uit. "Een hoed die overgaat in het haar of de huid van een gezicht. Ook hebben AI-modellen moeite met letters, waardoor teksten op kleding bijvoorbeeld niet kloppen."

Dat is zichtbaar op de arrestatieplaatjes van Trump en Johnson. Op kleding en petten staat brabbeltaal. Ook met handen heeft de computer vaak moeite. Mensen hebben meer dan eens zes vingers en soms zit de verkeerde hand aan de verkeerde arm.

Dat gebeurt bijvoorbeeld op onderstaand plaatje. Het lijkt levensecht, tot je beseft dat de duim aan de verkeerde kant zit. Op het plaatje van de paus en de arrestatie van Johnson kun je eveneens aan de handen zien dat het nep is.

Aan de linkerarm zit een rechterhand.
Foto: NU.nl/Rutger Otto

Nepvideo's en -geluiden

Er worden ook realistischere deepfakes gemaakt van video's en audio. Met programma's kun je bijvoorbeeld het gezicht van een beroemdheid over je eigen gezicht leggen. Zonder vertraging reageert het nepgezicht vervolgens op jouw bewegingen. In videogesprekken is de boel op deze manier overtuigend te neppen.

Maar als je weet waar je op moet letten, kun je het wellicht herkennen. "Als iemand knippert, zie je het nepgezicht vaak heel even iets kleiner worden", zegt Evenblij. "Ook zijn er grenzen aan het masker. Draait een persoon zijn hoofd te ver, dan ontstaat er vervorming. Je zou dus kunnen vragen of iemand even naar links en rechts wil draaien."

Bestaan er opnames van een stem, dan is er niet veel nodig om iemand dingen te laten zeggen die diegene nooit heeft uitgesproken.

Dit soort deepfakes zijn lastiger te ontmaskeren. "Je hoort het vaak nog aan de intonatie die net niet menselijk is", zegt Evenblij. "Er is ook software die kan oppikken of iets bestaat of niet. Hoe beter de geluidskwaliteit, des te meer informatie er is om te controleren."

Beeld uit video: Channel 4 zendt deepfake kersttoespraak koningin uit0:51
Afspelen knop

Channel 4 zendt deepfake kersttoespraak koningin uit

Channel 4 zendt deepfake kersttoespraak koningin uit

Gevaar op fraude ligt op de loer

Kunstmatige intelligentie zorgt ook voor positieve ontwikkelingen. Zo kan het helpen bij rouwtherapie en traumaverwerking. Of het kan mensen die niet kunnen praten een stem geven. Maar gevaar ligt ook op de loer.

"Het is nu al mogelijk een stem na te doen en telefoontjes te neppen", zegt Evenblij. "In de Verenigde Staten hebben we al voorbeelden gezien van hyperrealistische stemdeepfakes om fraude te plegen. Een crimineel kan zich voordoen als de kleinzoon van een oma en haar opbellen met de boodschap dat hij snel geld nodig heeft. Mensen zullen door dit soort dingen serieus geld gaan verliezen."

Overheden werken aan regelgeving om de ontwikkeling van kunstmatige intelligentie op een veilige manier te leiden. Maar ook organisaties en bedrijven zelf zouden moeten nadenken over ethisch gebruik van AI, zegt Evenblij. "Het gaat niet meer weg, dus we moeten manieren vinden om ermee om te gaan."

Ga gratis verder

Log in of registreer gratis op NU.nl en krijg toegang tot extra artikelen

Beeld: Twitter.com/singareddynm
nujij comment69 reacties
Delen via WhatsAppWhatsAppDelen via FacebookFacebookDelen via TwitterTwitterDelen via LinkedInLinkedInDelen via E-mailE-mail

Lees meer over:

Kunstmatige intelligentieTechNUverder

NUjij: Uitgelichte reacties

Auratus
01 apr 2023 om 12:37
Dat is gemakkelijker gezegd dan gedaan. Nu zijn de foutjes nog duidelijk voor iedereen als ze erop worden gewezen. Maar dat is al snel voorbij en dan laten sommigen zich niet meer zo gemakkelijk overtuigen. Anderen zullen daardoor veel gemakkelijker misbruik kunnen maken van die beelden met alle gevolgen van dien. Nu wordt alle techniek sowieso misbruikt dus dat is op zich niets nieuws. Maar het gekoppelde mobiliseren van menigten via internet zie ik wel als zorgwekkend. Dat is het nu ook al maar dan vooral op basis van woorden. Foto's en in dea toekomst ook bewegende beelden zijn veel krachtiger. En nu al zie je naïvelingen roepen dat zo'n beeld moet worden voorzien van een AI-watermerk. Alsof dat de oplossing is waar iedereen zich aan zal houden want iedereen houdt zich ook aan de maximumsnelheid. Nee, ik denk dat dit nog heel vervelend kan gaan worden. Echte foto's die als AI-deepfake zullen worden bestempeld en omgekeerd.
Respect: 👍 3Reacties: 💬 0
Reageer
Marja2021
01 apr 2023 om 10:35
Persoonlijk vind ik dit een enge en zorgelijke ontwikkeling. Natuurlijk kan het ook ontzettend positief en voor goede zaken worden ingezet. Maar ik moet er niet aan denken dat ik bij alles wat ik lees, zie, hoor moet gaan nadenken of dit wel of niet echt is en of de persoon te vertrouwen is. Ik kijk niet echt uit naar wat ons dit verder gaat brengen. Al die achterdocht, wantrouwen richting alles en iedereen kan bijna niet tot iets goeds leiden…..
Respect: 👍 18Reacties: 💬 1
Reageer
nujij commentBekijk alle reacties


Aanbevolen artikelen


NUjij-reacties

nujij comment69 reacties

Net binnen

  • 09:33
    Belangrijke conferentie Apple staat in teken van VR-bril
  • 09:25
    Zeepmaker Henkel heeft optie voor terugkopen activiteiten Rusland
  • 09:22
    PSV wil Bosz vastleggen als nieuwe trainer
  • 09:08
    Acht mensen opgepakt in Hongkong om herdenking bloedbad in 1989

Meest gelezen

  • 1
    Grote brand in appartementencomplex Amsterdam-Oost, knooppunt Amstel dicht
  • 2
    Oekraïense president Zelensky: 'We zijn klaar voor tegenoffensief'
  • 3
    Bewoners niet naar huis na grote brand appartementencomplex Amsterdam-Oost
  • 4
    Verdriet bij Janssen na verloren CL-finale met Wolfsburg: 'Ben niet boos op Wilms'
  • 5
    Op vakantie buiten Europa? In een paar seconden verbruik je 60 euro aan data


Nieuwsvideo's

  • Wonen we in de toekomst massaal op het water?
    Wonen we in de toekomst massaal op het water?
  • Vlammen slaan uit dak van Amsterdams appartementencomplex
    Vlammen slaan uit dak van Amsterdams appartementencomplex
  • Imker in Haarlem haalt duizenden bijen onder fietsmand vandaan
    Imker in Haarlem haalt duizenden bijen onder fietsmand vandaan
  • VVD en CU op partijcongres lijnrecht tegenover elkaar over asielbeleid
    VVD en CU op partijcongres lijnrecht tegenover elkaar over asielbeleid

  • Voorpagina
  • Economie
  • Sport
  • Media en cultuur
  • Overig
  • Voorpagina
    • Net binnen
    • Meest gelezen
    • Oorlog Oekraïne
    • Binnenland
    • Buitenland
    • Algemeen
    • Politiek
    • Uit andere media
    • Video
    • Podcast
    • Weer
  • Economie
    • Klimaat
    • Tech
    • Wonen
    • Geld
    • Werk
    • Auto
    • Aandelen
  • Sport
    • Voetbal
    • Formule 1
    • Scorebord
    • Sportspellen
  • Media en cultuur
    • Films en series
    • Muziek
    • Boek en cultuur
    • Media
    • Achterklap
    • Koningshuis
    • TV gids
  • Overig
    • Het Woord
    • Kind en Gezin
    • Dieren
    • Eten en drinken
    • Gezondheid
    • NUcheckt
    • Opmerkelijk
    • Wetenschap
    • Over NU.nl
    • Copyright
    • Disclaimer
    • Privacy en cookiebeleid
    • Adverteren
    • Werken bij NU.nl
    • Verzekeringvergelijker
    • Privacy instellingen
  • Over NU.nl
  • Copyright
  • Disclaimer
  • Privacy en cookiebeleid
  • Adverteren
  • Werken bij NU.nl
  • Verzekeringvergelijker
  • Privacy instellingen

Volg ons op:

©2023 DPG Media B.V. – alle rechten voorbehouden