De komende week mogen ontwikkelaars vijf repo’s in de vorm van “daily drops” verwachten vanuit de Chinese LLM-maker DeepSeek. Het team zal meer expertise delen rondom de bouwstenen van de eigen online diensten.
DeepSeek week af van gevestigde AI-spelers zoals OpenAI en Anthropic door de eigen geavanceerde AI-modellen open-source aan te bieden. Althans: het betrof de LLM’s zelf, zodat ze door iedere gebruiker met genoeg rekenkracht zelf gedraaid konden worden. Een wetenschappelijk paper onthulde daarnaast allerlei details over de werkwijze van DeepSeek. Toch missen er enkele details. Welke data werd bijvoorbeeld gebruikt om DeepSeek-V3 en DeepSeek-R1 te trainen? En hoe zit de AI-infrastructuur achter de online chatbot in elkaar? Op die laatste vraag volgt komende week een antwoord.
Lees ook: DeepSeek verboden voor Nederlandse ambtenaren
AI-infrastructuur
Het initiatief wordt DeepSeek Open Infra genoemd. Dagelijks wordt er een nieuwe GitHub-repository gedeeld om de claims van DeepSeek te vergezellen met concrete code.
De belofte voor de vijf repo’s is dat ze de “nederige bouwstenen” voor DeepSeek’s online dienst vormen. “Gedocumenteerd, gedeployed en in de strijd getest”, zo verwoordt de AI-maker het op GitHub. En, om cynische voorspellingen voor te zijn: “geen vaporware, alleen programmeercode dat onze piepkleine moonshot vooruit bracht.”
De repo’s worden gedeeld met de vrijgevige Creative Commons (CC) 1.0-licentie. Hiermee kunnen gebruikers de code kopiëren, aanpassen, distribueren en uitvoeren, ook voor commerciële doeleinden. Hiervoor is ook geen toestemming vereist. Wel is een link naar de oorspronkelijke code en een erkenning nodig om aan de CC 1.0-licentie te voldoen.
Beluister ook onze Techzine Talks-aflevering over de Chinese LLM-sensatie DeepSeek: