Project Brainwave maakt van Azure het snelste cloudplatform voor AI

Op Build 2018 heeft Microsoft Project Brainwave opengesteld voor ontwikkelaars. Het project stelt gespecialiseerde chips ter beschikking in Microsoft Azure om AI-modellen de draaien. Vanaf vandaag kunnen ontwikkelaars met de previewversie aan de slag gaan.

Allereerst een korte introductie: wat is Project Brainwave? We hebben het al eens uitgebreid uitgelegd, maar kort samengevat gaat het over programmeerbare chips van Intel. De Intel Stratix 10 heeft Field-Programmable Gate Arreys (FPGA) aan boord die op een bijzondere efficiënte manier AI-berekeningen kunnen doen. Hiermee hoopt Intel om het dominante marktaandeel van Nvidia’s GPU’s binnen AI aan te vallen.

Deze FPGA-chips hebben een vrij programmeerbare architectuur die voor elke toepassing kan worden aangepast. Hiermee kunnen ze veel efficiëntere prestaties leveren dan een CPU of GPU met een vooraf bepaalde architectuur en instructieset. Microsoft claimt door de hoge snelheid en lage latency van Project Brainwave dat Azure de snelste cloud op dit moment is voor realtime AI.

Eerder dit jaar integreerde Microsoft Project Brainwave in zoekmachine Bing. Dankzij de realtime AI-berekeningen werden zoekresultaten 10 keer sneller berekend.

Het valt af te wachten hoe succesvol FPGA zal zijn. Google werkt namelijk ook aan eigen Tensor Processing Unit (TPU) chips voor AI-toepassingen. De GPU heeft dankzij Nvidia met zijn CUDA-programma een gigantische voorsprong genomen op de concurrentie de afgelopen jaren, maar is niet in elke berekening even efficiënt. Het spreekt voor zich dat AI de toekomst is, maar of die zal worden gevoed door GPU, FPGA, TPU of nog iets anders, valt af te wachten.