5 min Analytics

Ilya Sutskever wil doen wat OpenAI niet kan: het veilig ontwikkelen van superintelligentie

Insight: Generatieve AI

Ilya Sutskever wil doen wat OpenAI niet kan: het veilig ontwikkelen van superintelligentie

Ilya Sutskever heeft opnieuw een eigen AI-bedrijf opgericht. Zijn vorige onderneming betrof het succesvolle OpenAI, bekend van de GPT-chatbot. Vorige maand nam hij daar ontslag zonder dat duidelijk was waarom. Zijn oprichting van het bedrijf Safe Superintelligence Inc. lijkt nu meer te vertellen over wat de reden voor zijn vertrek geweest moet zijn.

Sutskever deelde geen reden voor het vertrek bij OpenAI. Nu is het duidelijk dat hij in ieder geval actief blijft in de ontwikkeling van AI. Sutskever heeft daar zijn strepen reeds verdiend. Zo vulde hij een grote rol in bij het ontwikkelen van generatieve AI en het versnellen van het trainingsproces van LLM’s.

Het is dus een goede zaak dat het ‘bijzondere genie’, zoals OpenAI-CEO Sam Altman zijn voormalige collega omschreef, in de AI-wereld actief blijft. Overigens is OpenAI niet het eerste project van Sutskever geweest. In 2012, vier jaar voor het oprichten van OpenAI, zette hij DNNResearch op. Het had maar enkele maanden nodig voordat dit bedrijf de aandacht van Google trok en werd opgekocht. Dat leverde Sutskever de positie op van Research Scientist bij dit techbedrijf dat al vroeg serieus investeerde in de ontwikkeling van AI.

Controle terugwinnen

Het is niet voor het eerst dat Sutskever opnieuw begint en de controle terugwint die hij verloren ziet gaat naarmate het bedrijf uitbreidt. Binnen OpenAI is dit te illustreren met het tumultueuze weekend waarin Altman zijn ontslag kreeg als CEO. De actie werd aanvankelijk gesteund door Sutskever, die in het verleden al menigmaal botste met Altman over de strategie van OpenAI. Later kwam Sutskever terug op zijn deelname aan de actie en zei hij hier spijt van te hebben. Door zijn plotse omslag bleef hij als enige oprichter in het bestuur nadat het ontslag van Altman werd teruggetrokken en het juist de raad van bestuur bleek dat plaats moest maken.

Uit dat weekend bleek dat de rol van Altman binnen OpenAI an enorme waarde was. Vanuit Microsoft, de grootste partner van OpenAI, kreeg hij meteen de hand geboden om een geavanceerd AI-onderzoeksteam te gaan leiden. Verder was de mening van het personeel alleszeggend. 90 procent kantte zich tegen het besluit met een brief aan de raad van bestuur waarin zij dreigden met ontslag als Altman niet terugkeerde en het bestuur zijn ontslag gaf.

Het is gebleken dat het niet meer mogelijk is om binnen OpenAI rond Altman heen te werken. De werknemers, aandeelhouders en partners van het bedrijf willen dat niet, maar ook als publiekelijk figuur heeft Altman een rol ingenomen die onlosmakelijk verbonden is met OpenAI.

Lees ook: OpenAI overweegt for-profitstructuur om CEO Sam Altman te beschermen

Safe Superintelligence Inc.

Sutskever kan nu in een nieuw project opnieuw beginnen. Waarschijnlijk probeert hij hierbij datgene wat hij ziet misgaan bij OpenAI nu correct te doen. Zijn nieuwe bedrijf Safe Superintelligence Inc. zal focussen op de creatie van artificial general intelligence (AGI) waar de ‘superintelligentie’ in de naam op doelt. Verder ligt de focus op de veilige ontwikkeling van deze technologie.

In het bedrijf zijn ook Daniel Gross en Daniel Levy betrokken. Gross leidde eerder de AI-initiatieven binnen Apple en staat voornamelijk bekend als ondernemer. Levy komt mee vanuit OpenAI, waar hij lid was van het technische team sinds maart 2022.

Stukje bij beetje gaat het imago van OpenAI kapot

De website van het bedrijf geeft extra uitleg bij de missie: “Superintelligentie is binnen handbereik. Het bouwen van veilige superintelligentie (SSI) is het belangrijkste technische probleem van onze tijd.” Die stelling heeft twee belangrijke aspecten die inzicht lijken te geven in wat er speelt binnen OpenAI. Ligt superintelligentie binnen handbereik doordat OpenAI er een belangrijke doorbraak in heeft te pakken? Verlopen de ontwikkelingen daar onveilig, mogelijk zonder te kijken naar de risico’s van een niveau van AI dat zo slim is als mensen?

Over het veiligheidsaspect ligt OpenAI de laatste tijd onder vuur. Op de momenten dat Altman in het openbaar spreekt, lijkt er binnen OpenAI nochtans niets aan te mankeren. Zo spreekt hij regelmatig met wetgevers en pleit hij steevast voor een beleid waarin veiligheid hoog in het vaandel staat en AI-ontwikkelaars verplichtingen na te leven hebben. Personen die in de processen van OpenAI betrokken zijn/waren, spreken dan weer over een cultuur waar het tempo voor het uitbrengen van AI-tools het wint van veilige ontwikkeling. Als reactie op de steeds luidere openbare kritiek, richtte het bedrijf een veiligheidscommissie in. De invulling van de commissie, onder leiding van Altman en ingevuld door OpenAI-insiders die na de terugkeer van de CEO niet uit het bestuur werden gezet, toont dat het om niet meer gaat dan een leeg omhulsel.

Dat Sutskever zijn geniale capaciteiten voor AI-ontwikkeling inzet in een bedrijf dat inzit met de risico’s van dergelijke ontwikkeling, lijkt ons een goede zaak. Aangezien het bedrijf zich afzet tegen de commerciële aspecten van AI-ontwikkeling, valt het nog te zien wanneer Safe Superintelligence Inc. de product release houdt.

Lees ook: Bestuur OpenAI ontdekte op Twitter dat ChatGPT was gelanceerd