Uit angst gebruikers te beledigen heeft Google tekstsuggesties op basis van gender in Gmail uit zijn typehulp Slim Opstellen gehaald

Google introduceerde de functie Slim Opstellen eerder dit jaar tijdens zijn ontwikkelaarsconferentie I/O. Slim Opstellen probeert met kunstmatige intelligentie te voorspellen wat gebruikers willen typen, zodat zij na één of enkele woorden met de tab-knop hun zin automatisch af kunnen laten maken.

Google ontdekte in januari van dit jaar echter dat zijn kunstmatige intelligentie de neiging had om zinnen automatisch op mannen te betrekken. Dat zegt Gmail-productmanager Paul Lambert tegen Reuters.

Toen een onderzoeker typte 'Ik ontmoet volgende week een investeerder', suggereerde Slim Opstellen 'Wil je hem ontmoeten', in plaats van 'haar'. De kunstmatige intelligentie dacht op basis van geanalyseerde Gmail-berichten dat de kans op een mannelijke investeerder groter was dan op een vrouwelijke.

'Gender te belangrijk om fouten bij te maken'

Vrijwel alle technologiebedrijven zullen volgens Google last hebben van dit probleem. In veel werkgebieden zijn mannen immers nog steeds oververtegenwoordigd. Kunstmatige intelligentie baseert zich op beschikbare data, en neemt zo vooroordelen over.

Volgens Lambert is gender een te belangrijk onderwerp om fouten bij te maken. Gmail-technici hebben geprobeerd de vooringenomenheid van de kunstmatige intelligentie te omzeilen, maar dat is tot nu toe niet gelukt.

Daarom stelt Slim Opstellen voorlopig geen woorden en zinnen voor waar gender bij betrokken is. Volgens Google heeft dat invloed op minder dan 1 procent van de gevallen waarin Slim Opstellen wordt gebruikt. Wereldwijd wordt Slim Opstellen volgens Google al in 11 procent van de verzonden Gmail-berichten gebruikt.