WhatsApp heeft onlangs 130.000 gebruikers geschorst omdat ze kinderporno via de chatapp hebben verspreid.

Dat vertelt een woordvoerder van het bedrijf aan TechCrunch. De accounts werden in de afgelopen tien dagen opgespoord en verwijderd.

"We tolereren het nooit als kinderporno wordt verspreid", stelt de chatdienst in een verklaring. "We gebruiken geavanceerde technologie, waaronder kunstmatige intelligentie, om dit op te sporen en de verantwoordelijken te schorsen."

WhatsApp zegt niet expliciet dat er melding is gedaan bij de politie. Wel zijn de vondsten gerapporteerd bij de National Center for Missing and Exploited Children, een non-profitorganisatie waarbij kindermisbruik in de VS vaak wordt gerapporteerd. De chatdienst zegt wel mee te werken als de politie verzoeken doet.

Het nieuws komt vlak nadat twee Israëlische non-profitorganisaties aan de bel trokken. Zij constateerden dat de chatdienst vaak wordt gebruikt om kinderporno uit te wisselen. Daarbij werden in een periode van bijna drie weken meer dan tien groepen geïdentificeerd. Deze vondsten zijn gemeld bij de Israëlische politie.

Dertienhonderd foto's en video's verspreid via WhatsApp

AntiToxin, een start-up die software om kinderporno te traceren maakt, zegt meer dan dertienhonderd video en foto's op WhatsApp te hebben gevonden. Het is onduidelijk hoeveel meer er in de chatdienst wordt verspreid.

WhatsApp heeft moeite met het modereren van kinderporno in zijn app, omdat gesprekken versleuteld zijn. Hierdoor kan het bedrijf niet zomaar met gesprekken meelezen. Wel wordt er gekeken of profielfoto's, foto's van groepen of groepsinformatie verwijzingen naar kinderporno bevatten.

De chatdienst roept telefoonmakers op om beeldherkenning om kinderporno te identificeren in toestellen te implementeren. Dan zouden verspreiders van kinderporno gevonden kunnen worden zonder dat de versleuteling van chatapps verzwakt hoeft te worden.