IGEL heeft tijdens Now & Next 2026 in Miami Beach een lokaal draaiend taalmodel via Ollama aangekondigd voor IGEL OS. Dit is onderdeel van de AI Armor-feature, die gebruikt wordt voor dynamische runtime-beveiliging. AI Armor vertrouwt ook op een centrale policy engine in de Universal Management Suite (UMS) om aan compliance-eisen te voldoen.
Ollama speelt een centrale rol in het mogelijk maken van lokale AI. Dit open source-platform is gebouwd voor het downloaden en draaien van LLM’s op een endpoint. Het is bijvoorbeeld handig wanneer een medewerker een prioriteits-e-mail ontvangt. Die kan dan met het Gemma 3-model van Google direct een passend antwoord genereren. Geen clouddienst nodig en er hoeft niet betaald te worden voor tokens of een abonnement. Niks gaat van de pc of het bedrijfsnetwerk af.
Beheerders kunnen via UMS precies bepalen welke gebruikers toegang krijgen tot Ollama en welke prompts zijn toegestaan. De use cases die IGEL hiervoor opsomt: teksttransformatie, vertaling, samenvatting, het schrijven van code en generieke zoekopdrachten. Daarbij benadrukt IGEL dat de push van AI naar de edge ook gedreven wordt door kosten. De kosten van cloudgebaseerde AI-diensten kunnen voor organisaties fors oplopen.
AI Armor en governance voor het endpoint
Naast de lokale AI bouwt IGEL verder voort op AI Armor. Zo houdt IGEL voortaan bij welke processen toegang zoeken tot de NPU of GPU van het apparaat. Beheerders kunnen dit gebruik selectief blokkeren.
Alleen applicaties die via de App Portal zijn goedgekeurd en gesigneerd mogen draaien. Daarnaast werkt IGEL aan een centrale policy engine binnen UMS met voorgebouwde compliance-templates voor regelgeving. Via één klik zet een beheerder de juiste instellingen aan voor zijn branche, zonder dat iedereen de specifieke compliancevereisten hoeft te kennen.
Tip: IGEL brengt ‘slimmere Zero Trust’ Contextual Access naar endpoints