Safe Superintelligence, een AI-startup opgericht door een team met onder andere voormalig OpenAI-hoofdwetenschapper Ilya Sutskever, zoekt financiering tegen een waardering van ten minste $20 miljard.
Dit meldt Reuters op basis van bronnen. Safe Superintelligence (SSI) is in gesprek met zowel nieuwe als bestaande investeerders. Tot de huidige investeerders van SSI behoren Sequoia, DST Global, Andreessen Horowitz, SV Angel en NFDG. Dit consortium leidde in september vorig jaar een financieringsronde van $1 miljard, waarbij de waardering van het bedrijf op $5 miljard werd geschat. Dat SSI nu, volgens bronnen, financiering zoekt tegen een waardering die minstens vier keer zo hoog is, wijst erop dat investeerders optimistisch zijn over de technologie van het bedrijf.
Superintelligentie
Safe Superintelligence startte afgelopen juni met als doel AI-modellen te ontwikkelen die superintelligentie bezitten. Dit, met ingebouwde beveiligingsmaatregelen om schadelijke output te voorkomen. Het oprichtende team bestond uit Sutskever, AI-onderzoeker Daniel Levy en Daniel Gross. De laatste is een voormalig partner bij YCombinator. Gross, de CEO van SSI, leidde eerder ook AI-ontwikkelingsinspanningen van Apple.
Sutskever verklaarde dat SSI zich uitsluitend richt op de ontwikkeling van AI-modellen met superintelligentie. Het ontplooit geen andere activiteiten. Dit suggereert dat het bedrijf op korte termijn geen inkomsten genereert. Er zijn weinig details beschikbaar over hoe SSI van plan is dergelijke modellen te bouwen. Volgens Reuters heeft Sutskever aangegeven dat het bedrijf een nieuwe onderzoeksrichting volgt in plaats van bestaande AI-ontwikkelingsmethoden te gebruiken.
Hoeveelheid data te beperkt
Ontwikkelaars verbeteren de outputkwaliteit van grote taalmodellen door het aantal parameters te vergroten. En door meer hardware en trainingsdata te gebruiken. Tijdens een recente toespraak op de NeurIPS-conferentie voor machinaal leren suggereerde Sutskever dat deze aanpak zijn limiet bereikt. Hij beweerde dat ontwikkelaars moeite hebben om voldoende hoogwaardige trainingsdata te vinden om de outputkwaliteit van LLM’s te blijven verbeteren. Hij stelde toen dat men de piek van beschikbare data op internet bereikte en er er niet veel meer bij zal komen. Dat betekent, volgens hem, dat de industrie moet werken met de data die ze heeft. Er is immers maar één internet.
In 2012 maakte Sutskever deel uit van het academische team dat AlexNet ontwikkelde. Dit was een van de eerste moderne computervisiemodellen. Dit algoritme inspireerde een groot deel van het deep learning-onderzoek dat de basis legde voor hedendaagse grote taalmodellen. Na dit project werkte Sutskever enkele jaren bij Google, voordat hij in 2015 OpenAI mede oprichtte.
Redeneringsmodellen
Sutskever was de chief scientist van de ontwikkelaar van ChatGPT tot vorig jaar. Hij werkte onder andere aan OpenAI’s reeks redeneringsgeoptimaliseerde taalmodellen. Redeneringsmodellen vormden ook een belangrijk onderdeel van zijn recente keynote op NeurIPS.
Een systeem dat redeneert wordt echter onvoorspelbaarder naarmate het meer redeneert, vertelde Sutskever toen. Hij vergeleek het met schaak-AI’s die onvoorspelbaarder zijn voor de beste menselijke schaakspelers.
SSI is niet de enige startup die een nieuwe aanpak hanteert bij de ontwikkeling van AI-modellen. In december haalde Liquid AI $250 miljoen op bij investeerders om zogenaamde vloeibare neurale netwerken te ontwikkelen. Het bedrijf beweert dat deze algoritmes de outputkwaliteit van geavanceerde taalmodellen kunnen evenaren met slechts een fractie van de benodigde hardware.
Kunstmatige neuronen
Een AI-model bestaat uit kunstmatige neuronen, eenvoudige programma’s die elk een klein deel van de verwerking uitvoeren om een reactie op een prompt te genereren. Elke neuron bevat op zijn beurt componenten genaamd gewichten en activatiefuncties. Gewichten bepalen welke delen van de data een AI-model meeneemt in zijn beslissingen. Activatiefuncties bevatten de code waarmee het neuron deze data analyseert.
Bij standaard LLM’s blijven de gewichten en activatiefuncties na training onveranderd. Vloeibare neurale netwerken kunnen daarentegen deze componenten tijdens de inferentie aanpassen. Hierdoor kunnen dergelijke algoritmes zich voortdurend aanpassen aan de gegevens die ze verwerken.
SSI is een van de vele AI-bedrijven die naar verluidt nieuwe financiering zoeken. Vorige maand werd bekend dat OpenAI een financieringsronde van $40 miljard probeert af te ronden bij een geschatte waardering van $340 miljard. Concurrent Anthropic zou op zoek zijn naar $2 miljard aan financiering tegen een waardering van $60 miljard.
Lees ook: Ilya Sutskever wil doen wat OpenAI niet kan: het veilig ontwikkelen van superintelligentie