Onderzoekers van MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) hebben een neuraal netwerk ontwikkeld dat in theorie kan ‘kijken’ naar een foto van eten en het recept kan vinden dat daarbij hoort. Het past in een reeks soortgelijke project, want ook Pinterest werkt aan een soortgelijke techniek.
De onderzoekers van CSAIL hebben het netwerk Recipe1M genoemd en in detail omschreven in een paper die deze week gepubliceerd werd. Om de AI te ontwikkelen, werden er meer dan 1 miljoen recepten en bijna 1 miljoen afbeeldingen door het systeem verwerkt. Tijdens die training, wist het algoritme steeds beter uit te vinden welke recepten en foto’s bij elkaar pasten.
Het resultaat daarvan is een interface die Pic2Recipe gedoopt is. Daar kan je een foto uploaden, en dan geeft het systeem je de best passende recepten. Als het er althans een vindt, want zelf uploadden we een aantal foto’s van Beef Wellington, waar vervolgens geen overeenkomsten voor gevonden werden. Ook The Verge meldt een gebrek aan resultaten, zelfs bij populaire recepten.
Het lijkt erop dat de technologie dan ook nog flink verfijnd moet worden. Als er wel resultaten zijn, komen die namelijk lang niet altijd overeen met wat er online gezet is. Heel erg is dat natuurlijk niet: het is een technologie die nog in ontwikkeling is en die kan alleen maar verfijnd worden als er genoeg mee gedaan wordt. Het uploaden en verwerken van ruim 1 miljoen afbeeldingen is dus lang niet zoveel, vergeleken met het aantal mogelijke foto’s dat gemaakt kan worden.
Kortom: ook deze AI staat nog in de kinderschoenen, maar heeft wel groot potentieel. Als de professionals van MIT het werkende weten te krijgen, zou dat kunnen veranderen hoe we naar eten kijken. Stel je maar voor dat je eten voorgeschoteld krijgt en geen idee hebt wat er voor je staat. Je zou dan een foto kunnen maken, hem kunnen uploaden en meteen zien wat er allemaal in zit. Nu moet het alleen nog werken…