Latency-verhaal

Alan Atkinson, Senior VP Technology & Strategy Global, benadrukt dat NVMe nog maar in de kinderschoenen staat. “Er is nog ontzettend veel groeipotentieel qua drivers en optimalisatie vergeleken met wat we vandaag kunnen. Er zijn meer apps nodig die end-to-end NVMe-compatibel zijn. Ik durf zelfs een voorspelling te maken: elk groot OS en Hypervisor zal in de nabije toekomst NVMe-native zijn. Vandaag is dat nog niet het geval en ligt de nadruk op solid state.” NVMe verschuift het prestatieverhaal naar een latency-verhaal. De laatste 20 jaar draaide elke hardware rond prestaties, hoeveel IOPS er mogelijk zijn. Met NVMe spreken we daar niet meer over omdat de standaard 64.000 lijnen aan opslag beschikbaar stelt, met telkens 64.000 queues per lijn. De gigantische hoeveelheid IOPS blijft wel een interessant cijfer, maar latency primeert.  

De gigantische hoeveelheid IOPS blijft wel een interessant cijfer, maar latency primeert.

  Op een NVMe-oplossing moet je geen data meer zoeken. Applicaties moeten worden herschreven omdat ze moeten leren dat de data al klaarstaat. Dat is van cruciaal belang, want zolang dat niet gebeurt wordt het volledige potentieel van het NVMe-protocol niet gebruikt. Vandaag is er het SAS-protocol, dat tussen de processor en de flash drives functioneert. Dat fnuikt de multicore-CPU’s en flash drives. NVMe verwijdert die flessenhals.    

Machine learning

PowerMax maakt ook gebruik van machine learning om op termijn steeds beter te presteren in nagenoeg elke bedrijfsomgeving. Adnan Sahin, Senior Director of Software Engineering bij Dell EMC legt uit. “We hebben voor het eerst machine learning toegepast in een storage array. We hebben statistieken verzameld van diverse IO en alle data geanalyseerd. Daaruit volgt een algoritme dat dagelijks wordt getraind.”  

“We hebben statistieken verzameld van diverse IO en alle data geanalyseerd voor ons algoritme.”

  Om het concept te schetsen, duidt Sahin de techniek met een voorbeeld. “Stel dat je een typische 200 TB storage array hebt. Daaruit kunnen we 40 miljoen datasets verzamelen. Een algoritme analyseert dagelijks de data om te kunnen beslissen wat ermee wordt gedaan. Gemiddeld maakt PowerMax zo’n 150 keuzes per dag. Vermenigvuldig dat met 40 miljoen datasets, en je hebt 6 miljard beslissingen per dag.” Zoveel beslissingen betekent daarom niet dat PowerMax continu alles aanpast. Soms moet er helemaal niets gebeuren, maar soms wordt er ook actie ondernomen. Dat kan bijvoorbeeld dataredundantie zijn. PowerMax doet dat proactief, zodat je op elk ogenblik de juiste resources beschikbaar hebt.