Een confrontatie tussen Anthropic en het Amerikaanse ministerie van Defensie is in korte tijd geëscaleerd van een contractueel meningsverschil tot een publiek en politiek beladen conflict.
De inzet is hoog, melden Reuters en de BBC in eigen berichten. Het gaat om een defensiecontract ter waarde van maximaal 200 miljoen dollar en de vraag in hoeverre commerciële AI-leveranciers grenzen mogen stellen aan militair gebruik van hun technologie.
Aanleiding is de weigering van Anthropic om veiligheidsmechanismen uit zijn AI-modellen te verwijderen. Die waarborgen moeten voorkomen dat de technologie wordt ingezet voor volledig autonome wapensystemen of voor grootschalige binnenlandse surveillance. Volgens het Pentagon belemmert dit de inzet van de modellen voor legitieme doeleinden binnen Defensie.
Pentagon eist volledige toegang tot AI-modellen
Pentagonwoordvoerder Sean Parnell stelde eerder op de dag via X dat Defensie geen enkele intentie heeft om AI te gebruiken voor massasurveillance van Amerikanen of voor wapens die zonder menselijke betrokkenheid opereren. Tegelijk maakte hij duidelijk dat het ministerie volledige toegang eist tot de modellen van Anthropic voor alle wettelijk toegestane toepassingen. Volgens Parnell kreeg het bedrijf tot exact 5:01 uur Eastern Time op vrijdag om daarmee in te stemmen. Zo niet, dan zou Defensie de samenwerking beëindigen en Anthropic aanmerken als een risico voor de defensieketen.
Anthropic-CEO Dario Amodei reageerde dat zijn bedrijf zich niet kan verenigen met dat verzoek, ongeacht de druk die daarbij wordt uitgeoefend. Hij benadrukte dat de bezwaren niet voortkomen uit wantrouwen richting het Pentagon, maar uit een beoordeling van productveiligheid. Volgens Amodei zijn zogenoemde frontier AI-systemen simpelweg nog niet betrouwbaar genoeg om zelfstandig beslissingen te nemen in situaties waarin mensenlevens op het spel staan.
Een bron binnen het bedrijf lichtte toe dat AI-modellen in onbekende of nieuwe scenario’s onvoorspelbaar gedrag kunnen vertonen. In een militaire context kan dat leiden tot ernstige fouten, zoals het treffen van eigen eenheden, het mislukken van operaties of onbedoelde escalatie. Dat risico acht Anthropic op dit moment niet verdedigbaar.
Juridische grenzen bij AI-surveillance onduidelijk
Ook het gebruik van AI voor binnenlandse surveillance ziet het bedrijf als problematisch. Dezelfde bron wees erop dat bestaande wetgeving nauwelijks grenzen stelt aan de conclusies die AI kan trekken uit het combineren van grote hoeveelheden data. Daardoor kunnen populatiebrede profielen ontstaan die formeel niet expliciet verboden zijn, maar volgens Anthropic wel strijdig zijn met de geest van constitutionele bescherming van burgers.
Amodei gaf aan te hopen dat Defensie zijn standpunt heroverweegt, maar stelde tegelijkertijd dat Anthropic zich voorbereidt op een mogelijke beëindiging van het contract. In dat scenario wil het bedrijf volgens hem meewerken aan een ordelijke overdracht naar een andere leverancier. Hij voegde daaraan toe dat Defensie niet alleen dreigt met uitsluiting van zijn systemen, maar ook met het bestempelen van Anthropic als supply chain risk en zelfs met het inzetten van de Defense Production Act om het verwijderen van de veiligheidsmaatregelen af te dwingen.
Volgens Amodei veranderen die dreigementen niets aan de positie van het bedrijf. Hij stelde dat Anthropic niet bereid is zijn principes los te laten, ook niet onder juridische of financiële druk.
Pentagon reageert fel op kritiek van Anthropic
De reactie vanuit het Pentagon werd daarna persoonlijker van toon. Onderminister van Defensie Emil Michael beschuldigde Amodei via X ervan de waarheid te verdraaien en zichzelf boven het leger te plaatsen. Volgens Michael probeert de CEO zijn persoonlijke opvattingen op te leggen aan de Amerikaanse krijgsmacht, zelfs als dat volgens hem de nationale veiligheid schaadt. Hij benadrukte dat Defensie zich altijd aan de wet zal houden, maar zich niet laat dicteren door de voorkeuren van een commercieel technologiebedrijf.
Anthropic wordt gesteund door investeerders als Google en Amazon. Een woordvoerder van het bedrijf liet weten dat Anthropic open blijft staan voor overleg en zich inzet voor operationele continuïteit voor Defensie en militair personeel. Tegelijkertijd krijgt het bedrijf steun vanuit de bredere AI-sector. Meer dan tweehonderd medewerkers van Google en OpenAI ondertekenden een open brief waarin zij het standpunt van Anthropic onderschrijven en waarschuwen voor te snelle militarisering van geavanceerde AI.
Google en OpenAI zelf gaven geen inhoudelijke reactie op vragen hierover. Daarmee blijft het conflict voorlopig onbeslist, maar wel scherp omlijnd. Het draait niet alleen om één contract, maar om de vraag wie uiteindelijk bepaalt waar de grenzen liggen van AI in militaire en binnenlandse toepassingen.