Facebook heeft in het afgelopen kwartaal 8,7 miljoen beelden van naakte kinderen verwijderd. Dat deed het bedrijf met software die zulke plaatjes automatisch detecteert.

In een blogpost maakt Facebook woensdag bekend het afgelopen jaar gewerkt te hebben aan nieuwe technologie om kinderuitbuiting tegen te gaan. Facebook maakt gebruik van kunstmatige intelligentie en machine learning om afbeeldingen op te sporen.

Van de 8,7 miljoen gevonden beelden werd volgens Facebook 99 procent verwijderd voordat iemand ze kon rapporteren. De beelden "overtraden onze regels rondom naakte kinderen en het seksueel uitbuiten van kinderen".

Het bedrijf maakt melding van gevonden naaktbeelden van kinderen bij het Amerikaanse National Center for Missing and Exploited Children (NMEC). Facebook zoekt naar accounts die zulke afbeeldingen delen en plaatsen, zodat ze "verwijderd kunnen worden om schade te voorkomen".

Naaktfilter van Facebook maakt ook fouten

In het verleden ging het naaktfilter van Facebook soms de mist in met het wissen van gevonden naaktbeelden. Zo verwijderde Facebook in 2016 de bekende foto van het Vietnamese meisje dat na een napalmaanval onder de brandwonden zat. Vanwege het historisch belang stond Facebook de afbeelding later alsnog toe.

In augustus haalde Facebook een bericht van het Anne Frank Center for Mutual Respect offline. De foto van naakte Holocaust-slachtoffers werd aangemerkt als "in strijd met de regels". Ook dat bericht werd later toegestaan wegens historische waarde.