
de Volkskrant Verwijderen van desinformatie verhielp radicalisering niet
Dit artikel is afkomstig uit de Volkskrant. Elke dag verschijnt een selectie van de beste artikelen uit de kranten en tijdschriften op NU.nl. Daar lees je hier meer over.
In 2020 besloot Facebook desinformatie over coronavaccinaties van het platform te halen, in de hoop het verspreiden van zulke berichten tegen te gaan. Maar dat beleid maakte het publiek voor desinformatie niet minder fanatiek, zo schrijven wetenschappers van onder meer de George Washington University in vakblad Science. Zowel op het platform als daarbuiten lijkt het nepnieuws te zijn toegenomen - er zijn genoeg manieren om het verbod te omzeilen, zo bleek uit een analyse van publieke Facebookgroepen en -pagina's.
Berichten over angstaanjagende bijwerkingen, ziekenhuisopnames en sterfte door vaccinatie namen op anti-vaccinatiepagina's juist toe, evenals de promotie van alternatieve geneeswijzen. Ook verschenen er meer links naar externe bronnen met desinformatie, hoewel Facebook dit soort linkjes haastig begon te verwijderen na onthullingen van ex-Facebookmedewerker en klokkenluider Frances Haugen, die liet zien hoe het algoritme schadelijke berichten extra promoot.
Wie desinformatie over vaccinatie wil verspreiden heeft daar op Facebook genoeg methoden voor, concluderen de onderzoekers. Mensen zijn vaak bij meerdere pagina's aangesloten, dus als het bericht op de ene wordt verwijderd, lezen ze het op de andere alsnog. Andersom hebben de verspreiders van desinformatie dus ook een boel kanalen tot hun beschikking om hun berichten in uit te strooien.
Alsnog hoger in het algoritme
Daarnaast verkiest het algoritme van Facebook berichten waar mensen heftig op reageren boven posts met een wat lauwere ontvangst - dit houdt mensen langer op het platform, is het idee. Berichten met veel boze reacties verschenen daardoor consequent vaker en hoger op de tijdlijnen van mensen, tot Facebook daar een stokje voor stak omdat tijdlijnen volstroomden met boze of zelfs haatzaaiende berichten. Andere emoties werden voortaan belangrijker. De onderzoekers vermoeden dat de antivaxers dit wisten, omdat er in deze groepen veel vaker met 'sad' werd gereageerd dan in pro-vaccinatiegroepen, zodat hun berichten alsnog hoger in het algoritme belandden.
Het verwijderen van nepinformatie is net als een potje whack-a-mole. Het verdwijnt op het ene platform om direct weer op het volgende te verschijnen, weet factchecker, onderzoeker en docent online journalistiek Alexander Pleijter van de Universiteit Leiden. "Facebook heeft dit soort berichten nooit echt consequent weggehaald, dus dingen die blijven staan worden weer fanatieker gedeeld." Het kán wel, bewijst het platform - alles wat ook maar lijkt op een vrouwenborst wordt direct verwijderd. "Maar als je dat met misinformatie gaat doen, krijg je wel een heel restrictief censuurbeleid. Je wil bezoekers ook niet wegjagen naar andere platformen. En je kunt je afvragen in hoeverre dit indruist tegen de vrijheid om informatie te delen. Op dat koord balanceert Facebook altijd."
Pleijter plaatst wel een kanttekening bij het onderzoek: "Het is solide uitgevoerd, maar het richt zich op Facebook-pagina's die anti-vaccinatie zijn. Dat binnen die groepen antivax-berichten volop likes krijgen is niet verwonderlijk. Het laat niet zien welk effect het verwijderbeleid van Facebook had op de rest van het platform, of er meer of minder mensen in aanraking kwamen met onjuiste informatie. We weten dus niet of het bereik van de berichten ook minder werd."
Meer lezen van
De Volkskrant?
Meer informatie
Ga gratis verder
Log in of registreer gratis op NU.nl en krijg toegang tot extra artikelen