Een virtuele assistent zoals Samantha in de film Her is mogelijk wat betreft spraakbesturing. Onze telefoons en pc's gaan op termijn emoties herkennen en praten als mensen.

Dat wordt duidelijk bij een bezoek van NU.nl aan het innovatiecentrum van Nuance, de grootste speler op het gebied van spraakbesturing.

Nuance, met een kantoor tussen de universiteiten van Harvard en MIT, levert spraakbesturing voor in auto’s, tv’s, de gezondheidszorg en bijvoorbeeld Siri van Apple en S Voice van Samsung.

In de film Her is het spraaksysteem zo menselijk dat de hoofdpersoon, Theodore, verliefd op haar wordt en een relatie met zijn besturingssysteem begint. Samantha begrijpt altijd wat Theodore zegt, kan emoties herkennen en klinkt zelfs net als een mens.

Toekomst

Die drie onderdelen van spraakbesturing zijn allemaal mogelijk. Binnen een jaar of drie tot tien zullen onze digitale assistenten (Google Now, Siri, Dragon Assistent) volgens diverse medewerkers van Nuance al zo slim zijn.

Spraaksystemen krijgen de mogelijkheid de intonatie aan te passen op basis van de emotie van de gebruiker en zullen net als een mens betekenis aan bepaalde woorden geven en ze daarom anders uitspreken. Ook timing gaat sprongen maken, voorspelt Nuance.

Emoties begrijpen kan zelfs op verschillende manieren: aan de hand van de inhoud van woorden, op basis van akoestische gegevens of door met de camera van een telefoon of pc gezichtsuitdrukking in de gaten te houden. 

Hoe spraakbesturing de wereld verovert