US-Verteidigungsminister Pete Hegseth hat Anthropic ultimativ aufgefordert, seine KI-Modelle für sämtliche „rechtmäßigen“ militärischen Anwendungen freizugeben – einschließlich solcher ohne direkte menschliche Kontrolle und für Inlandsüberwachung. Andernfalls drohe der Ausschluss des Unternehmens aus der Pentagon-Lieferkette oder die Aktivierung des Defense Production Act, einem aus der Zeit des Kalten Krieges stammenden Gesetz, das der Regierung die Zwangsnutzung privater Industrie ermöglicht. Anthropic hatte zuvor klare Grenzen bei autonomen tödlichen Einsätzen und Massenüberwachung gezogen.
Der Konflikt eskalierte, nachdem Anthropic-CEO Dario Amodei am Dienstag nach Washington einbestellt wurde. Ein hochrangiger Pentagon-Vertreter erklärte, das Unternehmen habe bis Freitagabend Zeit, den Forderungen nachzukommen. Andernfalls werde Anthropic als „Supply-Chain-Risiko“ eingestuft. Anthropic betonte, es führe „gute-faith-Gespräche“, um die nationale Sicherheitsmission zu unterstützen, ohne die eigenen Sicherheits- und Verantwortungsstandards zu verletzen. Das Unternehmen prüft laut Insidern rechtliche Schritte.
Anthropic hatte seine Claude-Modelle bisher nur eingeschränkt für militärische Zwecke freigegeben und Bedenken bei Lethal Autonomous Weapons Systems und großflächiger Inlandsüberwachung geäußert. Die Technologie wird über Partner wie Palantir bereits in klassifizierten Missionen eingesetzt, unter anderem bei der Festnahme des venezolanischen Präsidenten Nicolás Maduro im Januar.
Objektive Bewertung
Der Vorfall markiert eine weitere Eskalationsstufe im Verhältnis zwischen der Trump-Administration und kritischen KI-Unternehmen. Die offene Drohung mit dem Defense Production Act – einem Instrument, das ursprünglich für Kriegszeiten gedacht war – signalisiert eine wachsende Bereitschaft der Regierung, zivile Technologieunternehmen direkt für militärische und sicherheitspolitische Zwecke zu instrumentalisieren. Gleichzeitig passt die Attacke auf Anthropic in ein breiteres Muster: Unternehmen, die ethische oder regulatorische Grenzen setzen, werden als „woke“ oder sicherheitsrelevant diffamiert, während kooperationsbereite Akteure wie xAI von Elon Musk bevorzugt werden.
Dieser Druck auf unabhängige KI-Entwickler verstärkt den Eindruck zunehmend autoritärer Strukturen in der US-Technologie- und Sicherheitspolitik. Er untergräbt das Vertrauen in die Unabhängigkeit der Privatwirtschaft und könnte langfristig Innovationen in sensiblen Bereichen behindern, da Unternehmen gezwungen werden, zwischen ethischen Standards und staatlichem Zwang zu wählen. Die Entwicklung wirft grundsätzliche Fragen zur Balance zwischen nationaler Sicherheit und verantwortungsvoller KI-Entwicklung auf – insbesondere in einer Zeit, in der autonome Waffensysteme und Massenüberwachung technisch immer machbarer werden.
