Microsoft test opvolger van 'racistische' chatbot

Microsoft test een nieuwe chatbot binnen de berichtenapp Kik. Daarmee heeft Microsofts eerdere racistische chatbot Tay een opvolger. 

De nieuwe chatbot is officieel nog niet aangekondigd. Mogelijk is dat de reden waarom de bot alleen toegankelijk is op de chatapp Kik. Hij werd gespot door Twitter-gebruiker Tom Hounsell. Iedereen kan de nieuwe bot een bericht sturen.

De nieuwe chatbot 'Zo' kan een gesprek aangaan met een gebruiker,  waarbij menselijk ogende antwoorden gegenereerd. Wie aan Zo vraagt hoe het gaat, krijgt hier bijvoorbeeld antwoord op.

De Microsoft-chatbot Tay zat vergelijkbaar in elkaar en leerde op basis van reacties om slimmer te reageren. Naarmate de bot meer berichten verwerkte, werden de reacties op gebruikers echter racistischer. 

Tay werd offline gehaald zodat Microsoft aanpassingen kon maken. Mogelijk hebben die aanpassingen geleid tot de nieuwe bot Zo. Wie aan Zo vraagt over bepaalde racistische of politieke onderwerpen, krijgt te horen dat Zo hier liever niet op reageert.

Wie aan Zo vraagt naar Donald Trump, krijgt bijvoorbeeld te horen dat "mensen soms verschrikkelijke dingen zeggen bij politieke discussies", en dat de chatbot zich er daarom liever niet in mengt.

Microsoft introduceerde eerder al een opvolger voor Tay genaamd Xiaoice, bedoeld voor de Chinese markt. De nieuwe bot is in staat om ook Engels te spreken.

Lees meer over:
Tip de redactie