3 min Applications

Google frist Gemini op: 2.0 heeft troef tegen OpenAI en DeepSeek

Google frist Gemini op: 2.0 heeft troef tegen OpenAI en DeepSeek

Na een proefperiode van twee maanden is Google’s reeks aan Gemini 2.0-modellen breed beschikbaar. Ook is er een redenerend model in experimentele vorm bijgekomen, dat direct de strijd aangaat met OpenAI en kersverse concurrent DeepSeek.

Gemini 2.0 was al officieel geïntroduceerd in december. Google karakteriseerde de nieuwe modellen als perfecte kompanen voor het agentic AI-tijdperk. Een paar maanden verder is er veel veranderd: niet agents, maar ‘reasoning’ is de hype-term van het moment. Gemini 2.0 Pro Experimental, nog geen week geleden uitgebracht, genereerde daarom niet al te veel interesse als een ‘klassieke’ LLM zonder redeneerstap. Dat wil zeggen: het overweegt niet eerst meerdere denkrichtingen voordat het een finale output genereert, wat OpenAI’s o1 en DeepSeek-R1 wel doen.

Ingehaakt op Google-services

Gemini Advanced-klanten hebben toegang tot alle Gemini 2.0-varianten in de Gemini-app. Dat heeft een grote impact: deze applicatie haakt namelijk in op alle Google-diensten. Voor het eerst is er toegang tot een redenerend model (Gemini 2.0 Flash Thinking Experimental) dat direct voorstellen doet in Google Maps, Gmail of andere GSuite-apps. Een korte test laat een sterk geredeneerde AI-output zien, bijvoorbeeld voor lunchplekken of de beste tijd om te vertrekken.

Het is een troef die OpenAI met o1, o3-mini en later o3 niet zomaar evenaart. Immers heeft het bedrijf geen pakket aan diensten zoals Google. DeepSeek biedt open-source vrijheid, maar het zal aan ontwikkelaars elders zijn om DeepSeek-R1 in te laten haken op andere apps. Bij Google is dit ingebouwd, ook via Google AI Studio en Vertex AI.

Een ander groot voordeel: Gemini 2.0 is ontzettend snel. Dit heeft Google grotendeels te danken aan de expertise met de eigen TPU’s, geoptimaliseerde AI-chips voor het draaien van LLM’s. Wat Google al een “full-stack benadering van AI-innovatie” noemde, blijkt nu een kracht die het bedrijf ver zal laten gaan in de AI-race.

Weinig aandacht, veel kracht

Relatief aan DeepSeek-R1 en OpenAI’s o3-mini is de aandacht voor Gemini 2.0 relatief beperkt geweest. Toch suggereerde Google met eigen benchmarks dat de buitenwereld toch echt rekening moest houden met de nieuwe LLM’s. In de praktijk is het altijd pas wat later duidelijk hoeveel die statistieken zeggen: DeepSeek-R1 sloeg in als een bom met een terechte positionering net onder OpenAI’s imposante o1-model, terwijl Anthropic’s Claude 3.5 Sonnet al maanden betere feedback krijgt online dan de cijfers doen vermoeden.

We hebben al wat sterke punten van Google’s Gemini-opzet genoemd, maar nog een is het waard om te herhalen: de context window. 2 miljoen tokens zijn er via het grote Gemini 2.0 Pro te raadplegen. Dat wordt weleens uitgelegd als 3.000 pagina’s aan tekst. Codebases verschillen nogal in formaat, maar voor grofweg 100.000 lijnen is een context window van ongeveer 1,25 miljoen nodig.

Gemini 2.0 Flash benadert die context window met 1 miljoen tokens. Grofweg 1.500 pagina’s dus, wat we gerust een gigantische hoeveelheid tekst mogen noemen. Hoe betrouwbaar is het met de maximale context? Als we Google’s eerdere uitleg over Gemini 1.5 Pro mogen geloven, kan het model het equivalent van een naald in een hooiberg uitstekend vinden.

Lees ook: OpenAI komt met ‘deep research’; het antwoord op DeepSeek?

PDF-kampioen

Een ander interessant wapenfeit is dat Gemini 2.0 Flash als geen ander PDF’s converteert. OpenAI’s 4o-mini, de meest kostenefficiëntie pdf-naar-markdown-vertaler vanuit OpenAI, levert 200 pagina’s per dollar op via de API. Gemini 2.0 Flash weet 6.000 pagina’s (!) te vertalen voor diezelfde enkele dollar. Dat is wat minder dan onafhankelijke tests toonden met Gemini 1.5 Flash, maar op een vele malen betrouwbaardere manier.