De beeldherkenning van Google kan voor de gek gehouden worden met speciale afbeeldingen. Door speciale patronen in afbeeldingen te zetten, denkt het algoritme bijvoorbeeld dat een schildpad een pistool is.

Dat ontdekte Labsix, een team van studenten van de technische universiteit MIT. Voor beeldherkenning worden vaak zelflerende algoritmes gebruikt die vaak een vrij ondoorzichtige werking hebben. Daar maken de onderzoekers misbruik van.

De kwetsbaarheid kan onder meer gebruikt worden om een kunstmatige intelligentie te laten denken dat een persoon eigenlijk iemand anders is.

Eerdere pogingen om beeldherkenningssoftware te misleiden werkten niet als de afbeelding in kwestie gedraaid of ingezoomd werd. Het algoritme kon dan voorbij het patroon kijken en de beelden goed identificeren. Bij het onderzoek van Labsix bleek het echter wel mogelijk om een computer voor de gek te houden als de misleidende afbeelding gedraaid werd. Naar eigen zeggen werkt de aanval vanuit vrijwel iedere hoek, met een 3d-geprint object.

"Dit betekent dat het waarschijnlijk mogelijk is om een verkeersbord te maken dat voor menselijke bestuurders normaal lijkt, maar door een zelfrijdende auto geïdentificeerd wordt als een voetganger die uit het niets komt", aldus de onderzoekers.

De studenten gebruikten de kunstmatige intelligentie van Google voor hun onderzoek, maar dit zou ook met andere systemen werken. Voor het onderzoek hadden ze echter wel toegang nodig tot het algoritme achter de beeldherkenning van Google om de kwetsbaarheden te ontdekken en het systeem voor de gek te houden.