Een Google-manager heeft interne wetenschappers die onderzoek deden naar software waarmee content aan gebruikers aanbevolen wordt, geïnstrueerd "een positieve toon aan te slaan", meldt persbureau Reuters woensdag.

In een concept, dat is ingezien door Reuters, wordt geschreven over de zorg dat deze technologie "desinformatie, discriminatie of anderszins oneerlijke resultaten" kan aanjagen en kan leiden tot eenzijdige content en politieke polarisatie.

De uiteindelijke versie (pdf) wijst er juist op dat de systemen "accurate informatie, eerlijkheid en een verscheidenheid aan content" kunnen aanjagen. In het onderzoek worden de Google-onderzoekers niet vermeld. Het is onduidelijk waarom.

De instructie om een positieve toon aan te slaan, "betekent niet dat we de echte uitdagingen moeten negeren", citeert Reuters de manager. Google wilde tegenover het persbureau niet op het onderwerp ingaan.

Onderzoeker van Google vreest censuur

Reuters schrijft dat wetenschappers in zeker drie gevallen werden opgedragen om niet negatief over de Google-technologie te schrijven. Ook zouden de onderzoekers expliciete verwijzingen naar Google-diensten, zoals YouTube, moeten vermijden.

Google-onderzoeker Margaret Mitchell zegt tegen Reuters te vrezen voor censuur. "Als we geen toestemming krijgen om te publiceren op gronden die niet in lijn zijn met peerreview (wetenschappers die elkaars werk op kwaliteit beoordelen, red.), hebben we een serieus probleem."

YouTube ligt regelmatig onder vuur, omdat door zijn aanbevelingsalgoritmes filterbubbels zouden ontstaan. Het telkens opnieuw aanbevelen van vergelijkbare video's zou leiden tot een tunnelvisie. Onderzoek hiernaar is in zekere mate tegenstrijdig.

Google kent beleid voor gevoelige onderwerpen

Volgens drie Google-medewerkers handhaaft het concern sinds juni ook een nieuw beleid waarbij onderzoek naar "gevoelige onderwerpen" eerst langs een juridische-, beleids-, en communicatie-afdeling moet.

Volgens het persbureau gaat het om onderzoek naar gezichts- en stemmingsanalyse en categorisering van ras, gender of politieke affiniteit.

Ook China, Iran en Israël, de olie-industrie, COVID-19, verzekeringen, huisbeveiliging, locatiegegevens, religie, zelfrijdende auto's, telecom en aanbevelingstechnologie vallen onder het beleid.