Google leert robots hand-oogcoördinatie

Met behulp van zelflerende software krijgen Google-robots hand-oogcoördinatie onder de knie, om zo veel sneller en soepeler te bewegen in de echte wereld.

Nadeel van huidige robots is dat ze vaak alleen werken in een gecontroleerde omgeving, zegt Google Research-onderzoeker Sergey Levine.

Tot nu toe werkten robots een aanpasbaar stappenplan af om bijvoorbeeld dingen op te pakken. De robots maken dan een foto, formuleren op basis daarvan een beweging en voeren die dan in één keer uit.

Wanneer die benadering echter in de rommelige praktijk wordt geprobeerd, zorgt elke onverwachte factor ervoor dat de robot een voorwerp niet kan oppakken, of zelfs niet kan vinden. Dit in tegenstelling tot bij mensen en dieren, die hun beweging constant bijstellen op basis van de veranderende praktijk.

Google-robots leren zelf objecten te grijpen

Veel soepelere robots

Door meerdere robots aan elkaar te koppelen en hun zelflerende software lang te laten trainen, ontstaat een soort hand-oogcoördinatie.

De onderzoekstak van ​Google koppelde veertien robots aan elkaar, zodat elke losse robot bijdroeg aan de kennis van de anderen. Na zo'n drieduizend uur trainen, meer dan 800.000 pogingen om een object op te pakken, was een beginnende hand-oogcoördinatie te zien.

Nu kunnen de robots uit een bak met allerlei voorwerpen op een soepele manier een bepaald voorwerp pakken. Als halverwege de poging blijkt dat het voorwerp half onder iets anders ligt, ziet de robot dat. Hij past dan zijn plan en beweging aan om alsnog het geplande voorwerp te pakken.

Door dit onderzoek door te zetten zegt Google dat natuurlijk bewegende robots steeds dichterbij komen.

Lees meer over:
Tip de redactie