3 min Applications

OpenAI lanceert o1-redeneermodel exclusief voor topontwikkelaars

OpenAI lanceert o1-redeneermodel exclusief voor topontwikkelaars

OpenAI stelt de volledige versie van zijn o1-redeneermodel beschikbaar aan zijn meest toegewijde developers. 

De aankondiging is onderdeel van de negende dag van OpenAI’s feestelijke campagne, genaamd ‘12 Days of OpenAI’. Tijdens deze campagne maakt het bedrijf bekend dat alleen ontwikkelaars in de ‘Tier 5’-categorie toegang krijgen tot het volledige o1-model. Dit betekent dat de toegang beperkt is tot ontwikkelaars die al minstens een maand een account bij OpenAI hebben en die minimaal $1.000 per maand uitgeven aan de diensten van het bedrijf.

Voor deze aankondiging hadden ontwikkelaars alleen toegang tot het minder krachtige o1-previewmodel.

Veel computerkracht nodig

Naast de gebruiksrestricties is de volledige versie van het o1-redeneermodel erg duur vanwege de enorme hoeveelheid computerkracht die nodig is om het te laten werken. Volgens OpenAI kost het $15 voor elke 750.000 geanalyseerde woorden en $60 voor elke 750.000 gegenereerde woorden. Daarmee is het bijna vier keer zo duur als het meer gangbare GPT-4o-model.

Voor degenen die bereid zijn de hogere prijzen te betalen, biedt de nieuwe versie ten minste een aantal extra mogelijkheden. OpenAI voerde verbeteringen door ten opzichte van de previewversie. Zo is de volledige versie van o1 meer aanpasbaar. Er is een nieuwe parameter, ‘reasoning_effort’, waarmee je kunt bepalen hoe lang het model nadenkt over een specifieke vraag.

Koppeling met externe databronnen

Daarnaast ondersteunt het model nu function calling, wat betekent dat het gekoppeld kan worden aan externe databronnen. Ook biedt het ondersteuning voor ontwikkelaarsberichten en beeldanalyse, die in het o1-previewmodel niet beschikbaar waren.

In ander nieuws heeft OpenAI aangekondigd dat het de GPT-4o- en 4o-mini-modellen integreert in de Realtime API, die is ontworpen voor toepassingen van spraak-AI met lage latency, zoals de Advanced Voice Mode. De Realtime API ondersteunt nu ook WebRTC, een open standaard voor het ontwikkelen van spraak-AI in webbrowsers. Dit suggereert dat we in de komende maanden mogelijk meer websites zullen zien die proberen met hun gebruikers te communiceren.

“Onze WebRTC-integratie is ontworpen om soepele en responsieve interacties mogelijk te maken onder reële omstandigheden, zelfs bij variabele netwerkkwaliteit,” zei OpenAI in een blogpost. “Het handelt audio-encoding, streaming, ruisonderdrukking en congestiecontrole af.”

Tot slot is er een nieuwe functie genaamd ‘direct preference optimization’ voor ontwikkelaars die hun AI-modellen willen verfijnen. Bij de bestaande technieken voor supervisie-gebaseerde finetuning moeten ontwikkelaars voorbeelden geven van de input/output-paren die ze willen gebruiken. Met deze nieuwe functie kunnen ze in plaats daarvan twee verschillende antwoorden aandragen en aangeven welke voorkeur heeft.

Volgens OpenAI helpt dit om modellen te optimaliseren door automatisch het verschil te leren tussen gewenste en niet-gewenste antwoorden. Het model kan daarbij veranderingen in formattering, stijlrichtlijnen of uitgebreidheid detecteren en deze meenemen in de nieuwe versie.