Google DeepMind krijgt meer geheugen om beter in games te worden

Google's kunstmatige intelligentie DeepMind krijgt meer geheugen, om zo beter te worden in het spelen van klassieke Atari-games.

Hoewel DeepMind in 2015 al zelfstandig 49 Atari-games wist uit te spelen, moest de kunstmatige intelligentie voor elk spel opnieuw getraind worden. Bij elk nieuw spel vergat de zelflerende computer hoe de vorige spellen werkten.

Door een nieuw algoritme wordt dat probleem opgelost, en krijgt DeepMind als het ware een groter, rekbaar geheugen. Het algoritme heet Elastic Weight Consolidation (EWC), meldt Google. Het spelen van klassieke games is een overzichtelijke onderzoeksmethode voor DeepMind.

DeepMind kan met EWC de kennis over het spelen van verschillende Atari-spellen tegelijkertijd onthouden. Daarmee wordt het "catastrofale vergeten" verholpen, waarbij DeepMind voor elke nieuwe taak alle opgedane kennis en geheugen van andere taken moest verwijderen.

Menselijk brein

Daarmee komt het zelflerende algoritme van DeepMind volgens de onderzoekers een stap dichter bij de werking van het menselijk brein. Want waar DeepMind nu nog wordt getraind door het algoritme los te laten op één grote hoop data, leren mensen nieuwe dingen stap voor stap.

De wetenschappers denken ook dat hun onderzoek meer inzicht geeft in hoe het menselijk brein kennis vasthoudt. Die wetenschap moet op termijn zorgen voor algoritmes die efficiënter kunnen leren zonder nieuwe informatie eerst langdurig te moeten analyseren.

Google liet DeepMind eerder kijken naar de manier waarop energie in zijn datacentra wordt gebruikt. Door het inzicht van het zelflerende systeem kon Google besparen op zijn energierekening.

Ook nam DeepMind het vorig jaar verschillende keren op tegen de wereldkampioen in het complexe Chinese bordspel Go. Hoewel computers al lang van mensen kunnen winnen in schaak, wist DeepMind toen voor het eerst van een mens te winnen bij het spel Go.

Lees meer over:
Tip de redactie