Aanpassingen aan de software die haatberichten van Facebook verwijdert voordat deze worden gezien, zouden door bestuursleden van het sociale medium zijn tegengehouden. Dat meldt The Washington Post zondag op basis van ingewijden en interne documenten.

De aanpassingen werden in februari 2020 voorgesteld door een intern team van wetenschappers dat in een twee jaar durend onderzoek heeft aangetoond dat de software niet goed werkt.

Volgens de onderzoekers zouden nog te veel haatberichten rondgaan op het platform. Het gaat voornamelijk aanstootgevende posts over mensen van kleur, Joden, moslims en de lhbtiq+-gemeenschap.

Door de software beter onderscheid te laten maken tussen de verschillende soorten discriminatie, zou die sneller haatberichten kunnen verwijderen en minderheden op het platform beter kunnen beschermen. Ook wilden de onderzoekers ervoor zorgen dat de software aanstootgevende berichten over vrouwen en Mexicanen beter zou opsporen.

De bestuursleden vreesden echter dat de verandering van het algoritme ervoor zou zorgen dat "bepaalde groepen boven anderen zouden worden gesteld". Volgens The Washington Post zijn de bestuursleden echter bang zijn voor de reactie van "conservatieve partners".

Facebook zegt voldoende tegen haatzaaien te doen

Meta, het moederbedrijf van Facebook, weerspreekt de conclusie van The Washington Post. "We hebben niet alle voorgestelde wijzigingen doorgevoerd, omdat dan minder haatberichten, zoals beledigende uitlatingen over vrouwen of multiraciale mensen, automatisch zouden worden verwijderd", zegt woordvoerder Andy Stone tegen de krant.

Ook wijst Stone erop dat Facebook het percentage haatberichten op zijn platform heeft teruggedrongen tot 0,03 procent.

Sinds oktober heeft The Washington Post meerdere artikelen over misstanden bij Facebook geschreven. Oud-werknemer Frances Haugen heeft duizenden interne documenten gelekt, waarin staat dat het platform te weinig doet tegen de verspreiding van desinformatie en nepnieuws.