Tijdens AI World (voorheen: CloudWorld) kan Oracle niet ophouden over AI. Het frappante is dat de meest imposante uitbreidingen binnen het Oracle-portfolio juist zo min mogelijk AI gebruiken. Dat zou weleens een succesformule kunnen blijken.
Een cynicus zou stellen dat Oracle tijdens AI World te Las Vegas precies aankondigt wat de concurrentie al eerder heeft gepresenteerd. Ook hier is een hoofdrol weggelegd voor agentic AI en prijst men het belang van bedrijfsdata voor AI-toepassingen aan. Zelfs de dooddoener dat “data de nieuwe aardolie” is, komt voorbij. Dat verhult echter dat Oracle een tamelijk uniek verhaal te vertellen heeft dat uitgaat van de eigen kracht. Die sterke kanten beginnen bij het omgedoopte Oracle AI Database 26ai (jawel, twee keer AI in één titel), maar reikt tot elke cloud, de integratie van best practices en een slimme interpretatie van bekende technologieën.
We horen van co-CEO Mike Sicilia dat Oracle als enige hyperscaler van alle markten thuis is. Het bedrijf levert naar eigen zeggen als enige partij de data, de infrastructuur, applicaties én genoeg vertrouwen (lees: security) om AI op te laten bouwen. We beginnen bij de wijzigingen binnen AI Database 26ai en borduren daarop voort om de Oracle-visie te verduidelijken. Maar waar het om draait is het volgende: AI-gebruik moet passen binnen bekende patronen en slechts een middel zijn om de antwoorden te bereiken die altijd al in Oracle-databases zaten verscholen.
We hebben al uitgelicht hoe Oracle AI Database 26ai een evolutie is van Database 23ai. Volgens Oracle was die release uit begin 2024 het fundament waarop 26ai verder bouwt. Feitelijk is de nieuwe versie een volledig compatibele vervanging van 23ai die met de October-patch te installeren is. Daarnaast werken nieuwe features zoals de integratie van het Model Context Protocol zelfs op het oudere 19c.
26ai introduceert een nieuw datatype: AI Vectors. Om generatieve en agentic AI te laten functioneren, moet data in een vector database gehuisvest zijn. Oracle maakt het gebruikers zo eenvoudig mogelijk om deze conversie te maken vanuit objecten. Of het nu JSON’s, PDF’s, XML-bestanden, et cetera zijn, Oracle geeft de eigenschappen ervan in vector data weer. Hierbij krijgen vergelijkbare bestanden een vergelijkbare dataset zonder dat dit door gebruikers moet worden aangegeven. Wie vervolgens via een query naar bepaalde informatie zoekt, kan hierdoor zien welke gegevens het meest overeenkomen.
Het vinden van relevante bedrijfsdata wordt eenvoudiger dan voorheen door deze toevoeging van AI Vectors. Oracle geeft als voorbeeld dat een bedrijfsleider zich afvraagt welke manager het best presteert. Een semantisch AI-systeem vertaalt deze vrij te interpreteren vraag naar een SQL-query die werkelijk door de database te beantwoorden is. Iemand zonder technische kennis kan dus subjectieve vragen stellen die met objectieve data een gewenst antwoord kunnen krijgen. Zo is het mogelijk dat de query een tabel opvraagt van managers die de meeste omzet per klant halen. Toch is de AI-vertaalslag betekenisvol, want niet elke bedrijfsleider weet hoe de tabel er precies uitziet en welke SQL-code nodig is om de vraag te beantwoorden.
Het eindresultaat van de SQL-query verschijnt vervolgens in begrijpelijke taal en/of in de vorm van een tabel. Ook hier speelt AI dus een rol van betekenis, maar de onderhuidse activiteit is klassiek database-werk.
Autonomous AI Lakehouse
Dit alles vergemakkelijkt de stap van ruwe data naar inzichten. Toch is het belangrijk om ook datasilo’s te doorbreken. Diezelfde bedrijfsleider zonder database-expertise weet niet of en waarom sommige gegevens enkel on-prem beschikbaar zijn, binnen OCI of een andere public cloud. Daarom moet het nieuwe Oracle Autonomous AI Lakehouse deze data samenbrengen. Oracle omarmt hierbij het open tabelformaat Apache Iceberg, gebruikt door onder andere Snowflake en Databricks. Het bedrijf belooft dat het wel de prestaties hoog houdt, iets dat volgens Oracle weleens achterblijft bij Iceberg. Dankzij een Exadata-cache blijft de latency in orde.
Data stores buiten Oracle zijn tevens toegankelijk voor AI-vragen. Retrieval-Augmented Generation pikt data op vanuit alle versies van Oracle Database (in elke cloud, on-prem) en daar voorbij. Een gefedereerde catalogus van catalogi houdt bij welke bedrijfsdata aanwezig is en maakt het doorzoeken van deze gegevens plug-and-play door kant-en-klare integraties.
Risico’s wegwerken
Oracle heeft vanzelfsprekend veel aandacht voor alle risico’s die aan AI-gebruik gepaard gaan. Denk aan het gevaar voor dataprivacy als je een AI-model loslaat op je bedrijfsdata. Of wat als je AI-outputs hallucinant zijn en dus onbruikbare informatie delen (die je niet eens kunt controleren)? Dit alles omzeilt Oracle doordat AI zo min mogelijk aan bod komt. Een vraag in gewoonlijke taal vertaalt zich direct naar een query, terwijl het antwoord pas in de allerlaatste stap weer door een LLM wordt verwoord. Daarbij kunnen LLM’s alsnog van pas zijn, want de sterkste AI-modellen kunnen aardig wat redeneren op deze precieze data. Oracle ondersteunt hierbij alles van GPT-5 tot Claude Sonnet 4.5, Gemini 2.5 Pro en Grok, naar eigen zeggen de breedste keuze onder alle hyperscalers.
Hoeveel maakt die keuze van de precieze LLM uit? Voor sommige privacygevoelige on-prem klanten is er simpelweg niet de optie om te kiezen voor de beste AI-modellen via API-calls. Juan Loaiza, EVP Oracle Database Technologies, vertelt ons dat er nog altijd veel opties zijn voor Oracle-gebruikers, waar ze zich ook bevinden. Belangrijker, en duidelijk de focus van Oracle, is dat de LLM’s zich zo veilig mogelijk gedragen en eigenlijk zo min mogelijk agency hebben.
Dat beweegt eigenlijk tegen de stroom in. Met agentic AI is de belofte juist dat AI-systemen van alles voor je klaarspelen. Maar de LLM’s zijn hier slechts het eerste contactpunt en de uiteindelijke woordkunstenaar. De echte data, de echte inzichten, die moeten uit het antwoord vanuit de SQL-query komen.
Conclusie: AI binnen grenzen
Wederom: het is vrij gemakkelijk om te stellen dat Oracle erg beperkt en voorzichtig met AI omgaat. Het kan zich echter niet anders gedragen zonder de verkeerde AI-boodschap te sturen. Die boodschap dient te zijn dat LLM’s nog in de kinderschoenen staan, zo ook de toepassingen eromheen. Loaiza windt er geen doekjes om; tijdens zijn presentatie besteedt hij veel aandacht aan de gevaren van AI en hoe Oracle deze omzeilt. Dat doet het door AI zoals we het anno 2025 grotendeels aan banden te leggen en de eigen systemen waar nodig anders in te richten.
Lees ook: Oracle AI Database 26ai: hoe een database “AI-native” wordt