Google heeft dinsdagavond op de ontwikkelaarsconferentie Google I/O nieuwe software gepresenteerd. Het techbedrijf liet onder meer nieuwe functies voor de zoekmachine en augmented reality (AR) zien. Android Q krijgt een focusmodus waarbij afleiding kan worden weggefilterd.

In een nieuwe versie van de Google-spraakassistent zal het niet meer nodig zijn om een netwerkverbinding te hebben voor spraakherkenning. Dat moet het mogelijk maken om spraakbediening van smartphones en andere apparaten tot wel tien keer sneller te maken.

Google demonstreerde de technologie dinsdag op zijn ontwikkelaarsconferentie. Te zien was dat een smartphone zeer snel achtereenvolgende stemcommando's kan herkennen, waar normaal een vertraging zou optreden omdat de opdrachten in de 'cloud' moeten worden verwerkt.

Bij het dicteren van een e-mail of sms-bericht verschijnt tekst bijna direct na het uitspreken op het scherm. Wel had de assistent hier en daar nog moeite met het herkennen van opdrachten, waardoor de tekst 'verzenden' in een e-mail verscheen, maar de mail zelf niet werd verzonden.

Voor het spraakmodel van Google was voorheen zo'n 100 gigabyte aan opslagruimte nodig, maar volgens directeur Sundar Pichai is dat nu nog maar een halve gigabyte. Daarom kan het model op een smartphone komen te staan. De functie zal voor het eerst verschijnen op nieuwe Google Pixel-telefoons, die later dit jaar zullen verschijnen.

Het wordt voor gebruikers ook mogelijk om te zien wat de stemassistent van Google allemaal over ze weet, en om die informatie te wissen. Het bedrijf zegt privacy centraler te willen stellen in zijn productaanbod, hoewel slimme technologieën als de Assistant wel op grote hoeveelheden data vertrouwen om goed te werken.

Focusmodus voor Android Q

Op Google I/O gaf het bedrijf ook meer informatie over Android Q, de nieuwe versie van het mobiele besturingssysteem die in de herfst moet verschijnen. Volgens Google is privacy en beveiliging de belangrijkste focus, met uitgebreidere en duidelijkere instellingen om er bijvoorbeeld voor te zorgen dat apps niet ongemerkt toegang hebben tot de locatie van een smartphone.

Ook wordt het voor Google makkelijker om beveiligingsupdates uit te rollen. Dat kan vanaf Android Q op de achtergrond, zonder dat een toestel opnieuw hoeft te worden opgestart, en zonder medewerking van de maker van het toestel.

Een nieuwe 'focusmodus' maakt het mogelijk om bepaalde apps tijdelijk te blokkeren. En voor ouders zijn er uitgebreidere instellingen om te beperken welke apps kinderen allemaal kunnen gebruiken, en hoelang een apparaat op een dag actief mag zijn. Een nieuwe bètaversie van Android Q verschijnt dinsdag op 21 verschillende Android-apparaten.

Google Maps en YouTube krijgen een zogenoemde incognitomodus, die ervoor zorgt dat activiteiten niet worden opgeslagen in de accountgeschiedenis. De webbrowser Chrome bevat al lange tijd zo'n functie.

Assistent in de auto

De Assistant krijgt verder een speciale automodus, die het mogelijk maakt om een smartphone tijdens het rijden geheel handsfree te besturen.

Google liet ook zien hoe de Assistant in de toekomst zal kunnen helpen bij het boeken van een huurauto. De slimme assistent kan de daarvoor benodigde formulieren automatisch invullen, op basis van informatie die bij eerdere huurcontracten is opgegeven en in Gmail te vinden is.

Google noemt deze technologie 'Duplex on the Web' en zegt dat bedrijven geen actie hoeven te ondernemen om hun formulieren geschikt te maken. In de komende maanden wordt de functie verder getest, waarna gebruikers in de Verenigde Staten waarschijnlijk als eerste toegang zullen krijgen.

Vernieuwingen in de zoekmachine

De zoekmachine van Google wordt aangevuld met uitgebreidere zoekresultaten voor nieuws. Wie zoekt naar een onderwerp als de onlangs onthulde foto van een zwart gat, krijgt meer verschillende soorten artikelen te zien. Daardoor moet het makkelijker zijn om de context van het nieuws te begrijpen. Ook gaat Google bij sommige nieuwsonderwerpen een tijdlijn van gebeurtenissen laten zien.

Verder zullen podcasts binnenkort vindbaar zijn in de zoekmachine. Die zijn direct te beluisteren vanuit de zoekresultaten, maar het is ook mogelijk om een podcast op te slaan om later te beluisteren via de podcastapp van Google of via een Google Home-speaker.

Ten slotte zal de zoekmachine 3D-modellen laten zien, van bijvoorbeeld een haai. Het model kan met vingerbewegingen worden rondgedraaid, en kan via augmentedrealitytechnologie ook in het camerabeeld van een smartphonegebruiker worden geplaatst. Zo is bijvoorbeeld te zien hoe groot een haai is en kan het dier van dichtbij worden bekeken door er 'naartoe' te lopen.

Nieuwe mogelijkheden voor Google Lens

Google Lens, de technologie van Google die het mogelijk maakt om met camerabeelden naar bijvoorbeeld producten of informatie over planten te zoeken, krijgt ook verschillende nieuwe functies. Wie een foto maakt van een menu in een restaurant, kan direct zien welke gerechten het populairst zijn. Door op de naam van een gerecht te klikken, verschijnen foto's en recensies uit Google Maps.

Lens gaat het ook mogelijk maken om teksten op foto's te vertalen, in ongeveer vijftien verschillende talen. Het gaat om onder meer Engels, Duits, Frans en Chinees. Nederlands staat nog niet op de lijst. De veranderingen worden in de komende maand uitgerold.

Liveondertiteling voor slechthorenden

Met de functie Live Caption wordt het ook mogelijk om liveondertiteling te zien bij alles wat op een Android-smartphone gebeurt. Video's, podcasts en andere media met spraak worden op het scherm ondertiteld. Dat moet het voor doven en slechthorenden makkelijker maken om hun smartphone te gebruiken.

Het wordt voor hen ook mogelijk om te telefoneren zonder geluid of spraak. De stemassistent van Google kan de telefoon opnemen, waarna de woorden van de beller op het scherm worden uitgeschreven. Vervolgens is het mogelijk om te reageren door te typen. De stemassistent leest die tekst dan weer voor.

Google demonstreerde ook hoe de stemherkenning van het bedrijf kan worden aangepast voor mensen met een ongebruikelijk stemgeluid, zoals mensen met spierziektes. Op termijn moet het mogelijk worden om de Google Assistant te trainen op het specifieke stemgeluid van een spreker. Mensen met een spraakhandicap kunnen zich op de site van Google aanmelden om de technologie te verbeteren.