4min Analytics

DeepSeek-doorbraak geeft AI-modellen ‘snelwegen’: wat houdt het in?

mHC doorbreekt oude AI-bottlenecks

DeepSeek-doorbraak geeft AI-modellen ‘snelwegen’: wat houdt het in?

Weinig AI-doorbraken sinds ChatGPT hebben de introductie van DeepSeek-R1 evenaard. Begin vorig jaar verbaasde een Chinees onderzoeksteam vriend en vijand door een extreem efficiënt en open-source alternatief voor de toenmalige beste AI-modellen van OpenAI en Google. Ook nu is het DeepSeek-team openhartig met mHC, een techniek om LLM’s slimmer te maken dan ooit. Wat houdt het in en wat betekent het voor GenAI anno 2026?

Het onderzoek van het DeepSeek-team is hier volledig te lezen. Kort gezegd is mHC, het eindresultaat van het onderzoek, een manier voor een AI-model om informatie intern efficiënter te huisvesten. Een wat speelsere vergelijking is dat mHC snelwegen bouwt binnen AI-modellen, waar voorheen alleen binnen de bebouwde kom werd gereden.

Omdat LLM’s niet oneindig groter kunnen worden maar wel steeds beter worden naarmate ze groeien, moeten AI-onderzoekers manieren vinden om de technologie op een steeds kleinere schaal effectiever te maken. Eén inmiddels welbekende manier om dit te doen is Mixture-of-Experts, waarbij een LLM slechts een gedeelte van zichzelf activeert om een antwoord te genereren (tekst, foto, video) op basis van een prompt (tevens tekst, foto’s, video’s of andere data). Hierdoor is een groter AI-model tijdens het draaien ervan in feite kleiner en dus sneller om te berekenen. mHC belooft nog fundamenteler te zijn dan die stap dat was. Het biedt de ruimte om complexiteit van AI-modellen te vergroten zonder de pijnpunten van voorheen.

mHC en het bouwen van snelwegen

Hyper-Connections (de HC in mHC) beloofden in september 2024 al veel. Ze zijn een manier om informatie op een dynamischere wijze door AI-modellen te laten stromen. Met andere woorden: AI kan via HC complexere verbanden leggen dan ooit tevoren. Het probleem is dat er met deze diepere kennis ook gauw verwarring ontstond: voeg te veel Hyper-Connections toe en je AI-model raakt de draad kwijt en leert niets meer.

mHC (de M staat voor Manifold-Constrained) maakt die theorie nu eindelijk werkbaar. Door wiskundige structuur aan te brengen in die complexe routes, blijft de data stabiel. Dit lost een oud zeer op. De huidige standaard, “Residual Connections”, zijn weliswaar veilig, maar functioneren eigenlijk als simpele 1-op-1 doorgeefluiken. Om een model daarmee slimmer te maken, zat er tot nu toe niets anders op dan het model domweg groter te maken (meer lagen), wat rekenkracht vreet. mHC pakt dit fundamenteler aan: in plaats van meer wegen te bouwen, maakt het de wegen zelf intelligenter. Hierdoor kan informatie rijker en efficiënter door het netwerk bewegen zonder dat de boel vastloopt.

De volgende stap in AI?

Dit alles belooft een grote AI-vooruitgang te zijn. Toch is het nog even wachten tot de technologische progressie ook in de werkelijkheid toepasbaar is. Van GPT-5, de Gemini 3-modellen en Claude 4.5 weten we niet hoe ze precies in elkaar zitten. OpenAI, Google en Anthropic zouden best al ver voor kunnen lopen op wat het DeepSeek-team hierna publiceert. Toch kan het zo zijn dat DeepSeek-R2, indien het verschijnt, opeens koploper is. Dat zal afhangen van de schaal waarop het werkt en of bepaalde doorbraken die nu publiekelijk bekend zijn, al in het geheim elders zijn ontwikkeld.

Het punt is dat we dit niet weten. Wat nu wél bekend is over mHC, zal ongetwijfeld leiden tot effectievere kleine AI-modellen. De optelsom van Mixture-of-Experts en mHC kan weleens opleveren dat LLM’s van een veel hogere kwaliteit dan voorheen op lokale apparatuur kunnen draaien of nu meer bescheiden AI-hardware vereisen tijdens training en inference. Dat leidt vermoedelijk opnieuw tot allerlei sterk uiteenlopende beurswaardes, zoals het geval was bij de lancering van DeepSeek-R1. Dit kwam voort uit twijfels over de toekomst en houdbaarheid van de hyperscale-uitbouw voor de zo groot mogelijke AI-rekenclusters, en ook nu kan deze twijfel weer toeslaan.

Hoe dan ook: de ontwikkeling van mHC zal nog op waarde geschat moeten worden. Het klinkt uiterst veelbelovend om AI werkelijk slimmer te krijgen zonder de rekenkracht drastisch te verhogen. Die vooruitgang zien we eigenlijk niet zo vaak als we bedenken hoeveel budget er beschikbaar is voor de ontwikkeling van de technologie. AI blijft een industrie van doorbraken en stagnatie, met tegenwoordig steeds meer diepgravende kennis onder specialisten over hoe men meer kan doen met minder hardware. Op dat vlak blinkt het DeepSeek-team uit en het is nog altijd uniek in haar openheid. Tot nu toe pakt dat positief uit voor de betaalbaarheid en daarmee bereikbaarheid van AI.