De werking van kunstmatige intelligentie benadert die van het menselijk brein steeds meer. Een groot verschil zit echter nog in het geheugen. Waar het menselijk brein bouwt op eerdere ervaringen voor het aanleren van nieuwe taken, kunnen neurale netwerken dat nog niet. Daar komt nu verandering in.
In een blogpost laat DeepMind, een dochter van Google-moeder Alphabet, weten dat ze een nieuw algoritme gebouwd hebben. Dat staat een neuraal netwerk toe eerder opgedane kennis te gebruiken voor het leren van nieuwe taken. Het algoritme gaat bij het leren van nieuwe taken eerst actief op zoek naar ervaringen opgedaan bij eerdere taken.
Specifiek liet het team van DeepMind de kunstmatige intelligentie tien verschillende videospellen van Atari leren. Daarbij hoefde men het systeem niet elke keer opnieuw te laten leren hoe een spelletje gespeeld moest worden. In plaats daarvan kon het systeem de kennis die het bij een vorige game opgedaan had, gebruiken voor het volgende.
De technologie staat nog in de kinderschoenen, maar het begin is er. Tegenover Wired laat James Kirkpatrick van DeepMind weten dat de technologie nog in de kinderschoenen staat. “De mogelijkheid om taken na elkaar te leren zonder te vergeten is een belangrijk onderdeel van biologische en kunstmatige intelligentie,” aldus Kirkpatrick. Het is volgens hem een “grote tekortkoming” in neurale netwerken en kunstmatige intelligentie dat het niet mogelijk is om eerdere ervaringen mee te nemen naar nieuwe taken.
Dat de technologie nog lang niet uitontwikkeld is, blijkt uit het feit dat een systeem nog altijd het beste werkt als het maar één game hoeft te begrijpen. Maar: “We hebben laten zien dat het mogelijk is om met opeenvolgende ervaringen te leren, maar nog niet bewezen dat het een verbetering is in de efficiëntie van leren,” zegt Kirkpatrick. “De volgende stap is om dit uit te breiden en te verbeteren.”