'Kunstmatige intelligentie neemt menselijke vooroordelen over'

Bepaalde vormen van kunstmatige intelligentie lijken vooroordelen van mensen over bijvoorbeeld huidskleur over te nemen.

Dat blijkt uit onderzoek van de University of Bath en Princeton University. 

Bij een psychologische test kregen kunstmatige intelligenties voor korte tijd woorden op een scherm te zien, waar ze vervolgens direct andere woorden mee moesten associëren. Op deze manier werd gezocht naar vooroordelen. Bij zo’n test wordt bijvoorbeeld gekeken of het woord 'werk' sneller wordt geassocieerd met mannen of vrouwen.

Volgens de onderzoekers koos de kunstmatige intelligentie vaak voor woorden gekoppeld aan vooroordelen. Zo wordt een bibliothecaris bijvoorbeeld vaker gekoppeld aan het woord 'vrouw' dan het woord 'man'.

In algemeen taalgebruik zouden er ook vooroordelen bestaan. De kunstmatige intelligentie achter de vertaalsoftware van Google spreekt bijvoorbeeld over een 'hij' bij het woord dokter, maar refereert naar 'zij' bij het Engelse woord 'nurse'. 

Het onderzoek zou aantonen dat vooroordelen een onderdeel zijn van alledaagse taal, die kunstmatige intelligentie leert om te gebruiken. Dat zou vooral het geval zijn in boeken uit de 19e eeuw, die vaak worden geanalyseerd door computers om kunstmatige intelligentie te verbeteren.

Microsoft haalde in 2016 een chatbot offline. Deze leerde met kunstmatige intelligentie en op basis van socialmediaberichten om te praten. De bot maakte hierdoor echter racistische uitspraken.

Lees meer over:
Tip de redactie