2 min Applications

AI-chipstartup Groq breidt uit met eerste Europese datacenter

AI-chipstartup Groq breidt uit met eerste Europese datacenter

De Amerikaanse AI-chipontwikkelaar Groq heeft zijn eerste Europese datacenter geopend in Helsinki, Finland. Daarmee zet het bedrijf een stap in zijn internationale uitbreiding. Tevens speelt het in op de stijgende vraag naar snelle en schaalbare AI-inferencing in Europa. 

De keuze voor Helsinki is strategisch. De regio beschikt over een betrouwbare energie-infrastructuur, koele klimatologische omstandigheden en voldoet aan Europese regelgeving rondom databeheer. De Noordse regio is al langer aantrekkelijk voor datacenterbouw vanwege de combinatie van milieuvriendelijke energiebronnen en gunstige temperatuurcondities voor koeling.

De nieuwe vestiging is opgezet in samenwerking met datacenterleverancier Equinix. Deze samenwerking maakt het mogelijk om Groqs inferencingcapaciteit via het bestaande Equinix-netwerk beschikbaar te stellen aan klanten in zowel Europa als de Verenigde Staten en het Midden-Oosten. Dankzij deze integratie kunnen organisaties AI-workloads uitvoeren met minimale vertraging en met toegang tot publieke, private of soevereine infrastructuur, afhankelijk van hun behoeften.

Cruciale rol voor LPU

Groq staat bekend om zijn specialisatie in AI-inferencing. Dat is het proces waarbij een voorgetraind model nieuwe data analyseert en direct een resultaat genereert. In tegenstelling tot het trainen van AI-modellen, dat veel rekenkracht en tijd vergt, richt Groq zich op snelle en efficiënte uitvoer van bestaande modellen. Centraal in deze aanpak staat de eigen ontwikkelde Language Processing Unit (LPU). Deze chip is geoptimaliseerd voor inferencing en maakt gebruik van zogeheten Tensor Streaming Processors (TSP’s), waarmee het rekenproces efficiënter en directer verloopt dan bij traditionele GPU-gebaseerde oplossingen.

De LPU liet onlangs indrukwekkende prestaties zien tijdens een demonstratie waarin het Meta’s Llama 2-model aanstuurde. In een snelheidstest presteerde het systeem aanzienlijk sneller dan ChatGPT, hoewel het gebruikte LLM kleiner was dan het GPT-4 Turbo-model. De demonstratie toont aan dat Groq’s technologie potentie heeft om de hardware-eisen voor AI-toepassingen te vereenvoudigen.

Met een marktwaarde van 2,8 miljard dollar positioneert Groq zich als een uitdagende speler voor gevestigde namen als Nvidia.