2min

Tags in dit artikel

, ,

NetApp heeft een nieuw hybride multicloud-platform en een as-a-Service consumptiemodel toegevoegd aan zijn portfolio. Het nieuwe consumptiemodel laat bedrijven datadiensten kopen op basis van gebruik. De nieuwe toevoegingen zijn volgens het bedrijf zelf in lijn met zijn Data Fabric-strategie, dat data-management naar flash-, disk- en cloud-resources moet brengen. 

NetApp rolt onder meer een nieuwe fabric orchestrator uit die moet dienen als een gecentraliseerde data control plane, waar bedrijven hun data-assets kunnen ontdekken, beheren en controleren, schrijft ZDNet. Bedrijven kunnen de orchestrator inzetten ongeacht waar hun data leeft in een hybride multi-cloud-omgeving.

Het nieuwe consumptiemodel is een infrastructuur die dient als een beheerslaag die bestaat bovenop iedere mix van public en private clouds en hybride omgevingen. Bedrijven kunnen uit een reeks aan opties kiezen, die spannen van een volledig beheerde variant tot as-a-Service.

Daarnaast kondigde NetApp aan dat zijn cloud-datadiensten nu beschikbaar zijn op NetApp HCI. Het gaat dan onder meer om Kubernetes en Cloud Volumes. De Kubernetes-dienst – die voortkomt uit de overname van StackPointCloud in 2018 – biedt een geautomatiseerde Kubernetes deployment engine, applicatie-marktplaats en applicatie-orchestratie met NetApp HCI als een regio waar deze in gedeployed kan worden. Cloud Volumes is de persistent storage met hoge prestaties van het bedrijf, en wordt nu uitgebreid naar on premise. Cloud Volumes is nu ook algemeen beschikbaar op AWS, Azure en Google Cloud.

Servers

NetApp breidde zijn Data Fabric-strategie in april ook uit naar servers, met versie 1.3 van zijn Memory Accelerated Data (MAX Data)-oplossing. Die oplossing kan gecombineerd worden met Optane DC persistent memory van Intel. Volgens NetApp zelf was het daarmee de eerste opslagoplossing die persistent memory gebruikt. Ook zet de oplossing de tweede generatie Intel Xeon Scalable Processors in, die in combinatie met de persistent memory eindgebruikers in staat stellen om meer waarde te halen uit grote datasets.