OpenAI heeft GPT-5 gelanceerd, de nieuwste versie van zijn kunstmatige-intelligentiemodel dat ChatGPT aandrijft. Het model is beschikbaar voor alle 700 miljoen gebruikers, meldt Reuters.
Volgens CEO Sam Altman (foto) is dit het eerste model van OpenAI dat aanvoelt als een expert op hoog academisch niveau. Hij ziet vooral potentie in het direct genereren van kwalitatief goede software op basis van een verzoek. Deze mogelijkheid, die intern als een belangrijk kenmerk van de GPT-5-generatie wordt gezien, werd tijdens demonstraties getoond met vibe coding.
De lancering vindt plaats in een periode waarin de AI-sector grote investeringen doet. Bedrijven als Alphabet, Meta, Amazon en Microsoft steken gezamenlijk honderden miljarden dollars in datacenters voor AI. OpenAI zelf overweegt werknemers de mogelijkheid te geven aandelen te verkopen bij een waardering van 500 miljard dollar, aanzienlijk hoger dan de huidige 300 miljard.
Zakelijke markt aarzelt
Toch is er twijfel over de commerciële opbrengsten van AI. Analisten merken op dat consumenten massaal gebruikmaken van ChatGPT, maar dat bedrijven vooralsnog terughoudender zijn met grote investeringen in AI-toepassingen. Om dit te veranderen legt OpenAI de nadruk op zakelijke functionaliteit en betere prestaties op complexe vraagstukken.
Technisch gezien bevat GPT-5 enkele nieuwe benaderingen. Een daarvan is test-time compute, waarbij het model extra rekentijd krijgt om moeilijke vragen te beantwoorden. Dit stelt GPT-5 in staat om ingewikkelde wiskundige of wetenschappelijke problemen beter op te lossen. Het is de eerste keer dat het grote publiek toegang krijgt tot deze technologie.
De stap van GPT-4 naar GPT-5 wordt door vroege testers als indrukwekkend omschreven op het gebied van programmeren en het oplossen van exacte vraagstukken, maar sommigen vinden de sprong kleiner dan bij eerdere upgrades. GPT-5 is volgens Altman nog niet in staat zelfstandig te leren, wat wordt gezien als een essentiële eigenschap voor AI die menselijke capaciteiten kan evenaren.
OpenAI heeft de afgelopen jaren obstakels ondervonden bij het opschalen van modellen. Er is een grens bereikt in de hoeveelheid beschikbare trainingsdata, aangezien de meeste grote datasets al zijn benut. Daarnaast is het trainen van zulke omvangrijke modellen complex en gevoelig voor hardwarestoringen, waarbij de uiteindelijke prestaties pas na maanden bekend zijn.