De Universiteit van Amsterdam (UvA) en het Nederlands Forensisch Instituut (NFI) doen gezamenlijk onderzoek naar het herkennen en opsporen van zogeheten deepfakes, gemanipuleerde video's waarbij het gezicht van iemand wordt misbruikt om een bepaalde boodschap over te brengen.

Deepfakes kunnen worden gebruikt voor het verspreiden van nepnieuws, criminele activiteiten of het doelbewust delen van gemanipuleerde video's. Zo is het mogelijk om het gezicht van een persoon te plakken op dat van een acteur in een pornofilm of kan iemand af worden geperst met gemanipuleerde beelden van een ontvoerd kind.

Deze deepfakes zijn volgens experts met het blote oog moeilijk te herkennen. Ook blijft de techniek zich ontwikkelen. Het onderzoek van de UvA en het NFI richt zich op de toepassing van Artificial Intelligence (AI) in forensische bewijsvoering. Ook wordt AI ingezet bij spraakherkenning en het aflezen van data.

Naast het onderzoek naar deepfakes is er volgens de UvA ook meer onderzoek nodig naar steganografie, het verbergen van boodschappen in foto's en video's. Ook hier kunnen criminelen gebruik van maken, bijvoorbeeld over wanneer en waar een lading drugs aankomt.

"Een ouderwets voorbeeld van een verborgen boodschap kan zijn dat de eerste letter van woorden in een zin gezamenlijk een nieuw woord vormen. Maar tegenwoordig maken ze ook video's waar boodschappen digitaal in zijn verborgen", zegt Zeno Geradts, die als bijzonder hoogleraar Forensic Data Science verbonden is aan de UvA. "Het zou handig zijn wanneer computers kunnen helpen die berichten te herkennen. Met AI kan je computers leren om dit soort verborgen berichten te herkennen, door ze te trainen op bepaalde afwijkingen."