Pure Storage lanceert AIRI Mini voor schaalbare AI-oplossingen

Wie graag AI-berekeningen on-premise wil draaien, moet dikwijls investeren in flink wat hardware. Pure Storage heeft met de AIRI Mini een compacte oplossing klaar, gebaseerd op zijn eigen FlashBlade en Nvidia’s DGX-1

De kans is groot wanneer je met AI-toepassingen voor je bedrijf wil experimenteren, dat je richting een van de grote cloudplatformen kijkt en een server huurt. Wanneer de experimentele fase voorbij is, kan on-premise hardware op termijn interessanter zijn. Pure Storage heeft met de AIRI Mini een compacte AI-oplossing die je lokaal kan uitrollen.

AI-ontwikkelingen

De AI-infrastructuur maakt gebruik van twee Nvidia DGX-1-servers. Dat aantal kan later dynamisch schalen wanneer AI-ontwikkelingen de huidige capaciteit overstijgen. “De grote meerderheid van de businessleiders ziet de enorme kansen die AI biedt. Maar door de complexiteit rond de implementatie komen hun AI-initiatieven vaak niet echt van de grond”, meldt Matt Burr, General Manager van FlashBlade bij Pure Storage.

“AIRI biedt een eenvoudige AI-infrastructuur voor projecten van iedere omvang. Het neemt de barrières weg die de inzet van AI nu vaak tegenhouden en maakt de weg vrij voor toekomstige uitbreidingen.”

2 petaFLOPS

AIRI Mini draait op één Pure Storage FlashBlade dat bestaat uit zeven 17 TB-blades en 1,5 miljoen IOPS levert. Elke Nvidia DGX-1 wordt geconfigureerd met 8 Tesla V100-GPU’s. Eén AIRI Mini levert 2 petaFLOPS aan AI-capaciteit. Het systeem wordt standaard geleverd met 100 GbE-switches die GPUDirect RDMA ondersteunen. Wie wil, kan ook kiezen voor de Nexus9000 100 Gb ethernet-switches van Cisco.

Wie meer wil, kijkt beter uit naar de gewone AIRI met vier Nvidia DGX-1-servers en 4 petaFLOPS aan rekenkracht. De AIRI Mini is direct leverbaar, net als de AIRI. Beide worden geleverd met de Nvidia GPU Cloud Deep Learning Stack en AIRI Scaling Toolkit.