Claude Code-lek legt vele Anthropic-geheimen bloot

Claude Code-lek legt vele Anthropic-geheimen bloot

Een medewerker van Anthropic heeft schijnbaar onbedoeld de source code van Claude Code publiek gedeeld. Hoewel het gelekte bestand inmiddels achter slot en grendel zit, hebben vele gebruikers online een kopie in handen en beschikbaar gesteld. 512.000 regels aan TypeScript-code verspreid over zo’n 1.900 bestanden onthullen allerlei voorheen onbekende details over zowel Claude Code in zijn huidige vorm als toekomstige plannen.

Anthropic deelt relatief weinig over de eigen AI-modellen en tools, ook al is het welbekende Model Context Protocol van hun makelij. Op dinsdag ontdekte securityonderzoeker Chaofan Shou dat een snapshot van de source code achter Claude Code vrij beschikbaar was via de npm registry. Dit betrof een JavaScript source map-bestand van hun officiële package voor Claude Code. Inmiddels is de TypeScript-codebase hieruit tienduizenden keren geforkt op GitHub. Het zal nog weken duren voordat alle elementen van het lek volledig onderzocht zijn gezien het formaat van de codebase. Toch is er al veel bekend over sommige krachtige features die Anthropic heeft gebouwd of van plan is om vrij te geven.

Complexe middelen

KAIROS, een autonome modus voor Claude Code, bestaat nog niet. Het lek suggereert dat deze feature als always-on daemon zou draaien om code te optimaliseren. Interne tegenstrijdigheden in codebases en een onnodig verbruik van geheugen kunnen door KAIROS op den duur verleden tijd zijn. Anthropic heeft deze feature nog niet gedeeld. In combinatie met het naar verluidt krachtige Mythos-model voor Claude zouden nieuwe use cases weleens een realiteit kunnen worden.

Anthropic heeft de voet vaker op de rem uit veiligheidsoverwegingen. Althans, zo presenteert het zichzelf graag. Ook heeft het bedrijf bij monde van CEO Dario Amodei zich meermaals uitgesproken tegen buitenlandse pogingen tot destillatie, ofwel het extraheren van kennis en outputs in Amerikaanse modellen om LLM’s van bijvoorbeeld Chinese komaf te bouwen. Een “ANTI_DISTILLATION_CC”-vlag in het Claude Code-lek duidt op het scrapen van API-traffic om deze destillatiepogingen tegen te gaan. Dat gebeurt op vrij slinkse wijze. In plaats van het afschermen van de traffic, kiest Anthropic er op basis van deze vlag voor om niet-bestaande tools op te roepen om de trainingsdata van andere AI-labs te vergiftigen. Zo komen derden er dus slechter vanaf door op Claude Code te willen trainen.

Huidige prestaties

De huidige capaciteiten van Claude Code overstijgen de benchmarks. Dat wil zeggen: developers zijn veelal positiever over de Anthropic-oplossing dan de ruwe meetlat van codeertoetsen voor AI-modellen suggereren ten opzichte van andere geteste LLM’s. Eén van de mogelijke oorzaken hiervoor is in het Claude Code-lek te ontwaren.

Een zelfgenezende mogelijkheid binnen Claude Code is feitelijk een stap tegen het probleem van “context entropy”. Dit is een gevaar voor LLM’s waarbij langdurige AI-sessies in accuratesse en kwaliteit afnemen doordat de berekeningen afhangen van te veel informatie uit een gesprek of API-interactie. Om het geheugen van Claude Code op te frissen, hanteert de agent MEMORY.md, een index van pointers om lijnen aan code te samenvatten. Enkel na het succesvol toevoegen van code aan bestanden verversen die pointers. Ook kiest de agent vaak voor een grep voor relevante informatie in plaats van dat de tooling elke token uit een transcript moet lezen.

Toekomstbeeld

Geheel verrassend zijn sommige andere ontdekkingen niet. Denk aan verwijzingen naar Opus 4.7 en Sonnet 4.8, toekomstige Claude-releases die momenteel nog niet klaar lijken te zijn voor release. Ook zijn interne codenamen als Capybara, Tengu, Fennec en Numbat niet al te veelzeggend behalve bepaalde benchmarks.

Onder de streep zal Anthropic balen van het lek (indien het echt onbedoeld was, en daar lijkt het wel op). Toch is het niet alsof het eigen model volledig naar de buitenwereld lekte. De gewichten van het eerste LLaMA-model van Meta werden in 2023 gedeeld door een gebruiker die legitiem toegang had verkregen tot de LLM. Sindsdien is de Llama-reeks aan AI-modellen open-source (of open-weight, aangezien de trainingdata niet open-source is of in detail gedeeld). Dat lek leek voor Meta dus in zekere zin een positieve wending te krijgen; of het was gewoon expres gedaan via een omweg. Hoe dan ook is Anthropic lang niet zo vrijgevig en zal het vooral strategisch op de korte termijn wat meer in de kaarten hebben laten kijken dan de concurrentie. Voor nu is het voor bouwers van AI-gedreven CLI-tools een onbedoelde les van Anthropic wat wel en niet werkt voor een dergelijke oplossing.