Das US-Verteidigungsministerium droht dem KI-Unternehmen Anthropic mit einer Einstufung als „Risiko für die Lieferketten“. Eine solche Maßnahme würde allen Unternehmen, die mit dem Pentagon kooperieren, die Nutzung von Anthropics KI-Modell Claude untersagen. Das berichtet das US-Nachrichtenportal Axios unter Berufung auf eine hochrangige Quelle im Verteidigungsministerium. Die Drohung soll den Druck in laufenden Verhandlungen über den Militäreinsatz von Claude erhöhen.
Anthropic lehnt es nach Informationen von Axios ab, dass das US-Militär Claude für Massenüberwachung der eigenen Bevölkerung oder für die Entwicklung autonomer Waffensysteme ohne menschliche Entscheidungsbeteiligung nutzt. Das Pentagon bezeichnet diese roten Linien als „übermäßig restriktiv“. Claude gilt derzeit als einziges großes KI-Modell, das in den abgeschirmten und geheimen Systemen des Verteidigungsministeriums eingesetzt werden darf. Mitarbeiter loben die Leistungsfähigkeit der Technik in höchsten Tönen.
Das US-Verteidigungsministerium hatte Anthropic im Sommer 2025 – gemeinsam mit drei weiteren KI-Unternehmen – Verträge über bis zu 200 Millionen US-Dollar pro Firma zugesagt. Diese sollen agentische KI-Arbeitsabläufe entwickeln. Die Drohung, den Vertrag zu kippen, wäre für Anthropic verkraftbar. Die angedrohte Lieferkettensanktion hingegen hätte weitreichende Folgen: Unternehmen müssten sich zwischen Geschäften mit dem Pentagon und der Nutzung von Claude entscheiden. Die Quelle räumte gegenüber Axios ein, dass eine Entfernung von Claude aus den bestehenden Pentagon-Systemen „enorm mühsam“ wäre.
Anthropic-CEO Dario Amodei nehme die Angelegenheit „sehr ernst“, gelte aber als Pragmatiker. Das Unternehmen sieht sich offenbar in einer starken Verhandlungsposition, da Claude der Konkurrenz derzeit überlegen sei.
Kritische Bewertung
Die öffentlich gewordene Drohung des Pentagons gegen Anthropic markiert einen gefährlichen Präzedenzfall in der US-KI-Politik. Eine Einstufung eines amerikanischen Unternehmens als „Lieferkettenrisiko“ – ein Instrument, das bislang gezielt gegen ausländische Akteure wie Huawei oder Kaspersky eingesetzt wurde – gegen ein eigenes Unternehmen, nur weil es ethische Grenzen beim Militäreinsatz seiner Technologie zieht, ist ein Missbrauch staatlicher Macht und ein Frontalangriff auf verantwortungsvolle KI-Entwicklung.
Anthropics Haltung – keine Massenüberwachung der eigenen Bevölkerung und keine vollautonomen Waffensysteme ohne menschliche Entscheidung – entspricht exakt den Prinzipien verantwortungsvoller KI-Nutzung, die die US-Regierung selbst in zahlreichen Strategiepapieren, Executive Orders und internationalen Erklärungen (z. B. REAIM-Gipfel 2024) wiederholt betont hat. Wenn das Pentagon nun genau diese Grenzen als „übermäßig restriktiv“ diffamiert und mit existenzbedrohenden Sanktionen belegt, entlarvt es die Rhetorik von „sicherer und vertrauenswürdiger KI“ als hohl.
Die Konsequenzen wären fatal:
- US-KI-Unternehmen würden künftig vor der Wahl stehen, entweder ihre ethischen Standards aufzugeben oder vom größten und einflussreichsten Kunden der Welt abgeschnitten zu werden.
- Der Anreiz, verantwortungsvolle „red lines“ zu setzen, würde massiv sinken – genau das Gegenteil dessen, was eine stabile, wertebasierte KI-Entwicklung braucht.
- Internationale Partner und Demokratien, die auf US-Führung in der KI-Regulierung setzen, würden das Vertrauen in die Ernsthaftigkeit amerikanischer Sicherheits- und Ethikversprechen verlieren.
Das Weiße Haus sollte umgehend klarstellen, dass eine solche Instrumentalisierung von Lieferkettensanktionen gegen US-Unternehmen, die sich an geltende ethische Leitlinien halten, inakzeptabel ist. Es muss eine klare politische Linie geben: Ethische Selbstbeschränkung von KI-Unternehmen wird nicht bestraft, sondern geschützt – gerade dann, wenn sie mit militärischer Nutzung kollidiert.
Andernfalls riskiert die US-Regierung, dass sie selbst das Vertrauen in die eigene KI-Führungsrolle untergräbt und den Weg für eine reine militärische Dominanz über ethische Prinzipien ebnet.
