Ingebouwde observability en een AI inference engine verschijnen in SUSE Rancher Prime en SUSE AI. Veel AI-plannen dreigen te mislukken wegens uitblijvend rendement, maar de nieuwe tooling vanuit SUSE moet dit leed voorkomen.
De uitbreiding van het cloud-native platform van SUSE richt zich daarmee op het beheer van AI-workloads. De precieze omgeving maakt niet uit: on-prem, cloud of hybride. De container zal volgens CPTO van SUSE Thomas di Giacomo ook AI domineren, net als dat het de cloudwereld heeft veroverd. Dezelfde inzichten in kosten en gebruik die voor cloudgebruik beschikbaar zijn, hebben een evenknie nodig voor AI-workloads. Zoniet, dan lijkt de IDC-voorspelling uit te komen dat 65 procent van alle zelfbedachte agentic AI-projecten binnen organisaties faalt in 2028.
Universele MCP-proxy vereenvoudigt beheer
De nieuwe release bevat een geïntegreerde Model Context Protocol-proxy, momenteel nog in tech preview. Deze proxy vereenvoudigt verbindingen met centraal beheer van MCP-endpoints. Het stroomlijnt kosten rondom AI-modellen en verbetert beheer van toegang tot data. SUSE heeft eerder MCP-componenten toegevoegd aan SUSE Linux Enterprise Server 16 en is dus volop bezig die standaard te implementeren in het eigen portfolio.
Het uitgebreide aanbod van inference engines omvat populaire platformen zoals vLLM. Deze zorgen voor snelle, efficiënte en schaalbare LLM-inference. Daarnaast biedt de release kant-en-klare observability voor Ollama, Open WebUI en Milvus via Open WebUI-pijplijnen. Daarmee dekt SUSE een groot deel van de gebruikte implementaties af, zeker voor organisaties die echt het heft in eigen handen nemen. Ondanks de plug-and-play aard van tools zoals Ollama en de interface van Open WebUI zijn ze vrij basaal; om modellen te koppelen aan data is er nog veel handwerk te verrichten bovenop dergelijke software.
Rancher Prime krijgt contextuele AI-agent
SUSE Rancher Prime is daarnaast uitgebreid met Liz, wat SUSE een contextbewuste AI-agent noemt en Kubernetes-beheer vereenvoudigt. Dit stelt teams in staat om op proactieve basis problemen te detecteren en prestaties te optimaliseren. Liz is beschikbaar in tech preview. Gebruikers kunnen nu ook virtuele clusters inzetten. Deze helpen bedrijven met het optimaliseren van kostbare GPU-bronnen. De virtuele clusters zorgen voor flexibiliteit tijdens elke fase in de AI-levenscyclus.
De nieuwe versie van SUSE Virtualization is daarnaast eveneens in tech preview beschikbaar. Deze biedt geavanceerde netwerkfunctionaliteit zoals microsegmentatie. De oplossing koppelt netwerkfuncties los van fysieke hardware om software-defined networking te ondersteunen.
SUSE Observability krijgt vanaf vandaag een nieuwe dashboard editor. Gebruikers kunnen operationele data visueel ordenen voor het delen van praktisch toepasbare inzichten. De nieuwe versie biedt daarnaast ondersteuning voor het populaire OpenTelemetry-framework.
Strategische partnerships versterken AI-governance
SUSE werkt voor de implementatie van haar AI-aanbod samen met meerdere partners. Het heeft onder andere partnerships gesloten met ClearML en Katonic voor MLOps en GenAI, AI & Partners voor AI-governance en compliance, Avesha voor GPU-orchestration en Altair voor HPC- en AI-oplossingen.