Das US-Verteidigungsministerium (Pentagon) droht dem KI-Unternehmen Anthropic mit schwerwiegenden Konsequenzen. Grund: Anthropic verweigert uneingeschränkten Militäreinsatz seiner KI Claude – insbesondere für Massenüberwachung, Inland-Propaganda oder vollautonome Waffensysteme ohne menschliche Kontrolle. CEO Dario Amodei nannte solche Anwendungen im Januar 2026 eine „klare rote Linie“ und „völlig unzulässig“.
Das Pentagon stuft Anthropic nun als potenzielles „supply chain risk“ ein – eine Maßnahme, die normalerweise gegen Firmen mit China-Geschäften ergriffen wird. Sprecher Sean Parnell: „Unsere Partner müssen unseren Kriegern in jedem Kampf helfen.“ Verhandlungen laufen weiter, doch das Pentagon setzte kürzlich ein Ultimatum bis Ende Februar 2026.
Hintergrund: Claude wurde im Januar bei der Festnahme von Venezuelas Ex-Präsident Nicolás Maduro via Palantir-Integration eingesetzt – entgegen Anthropics Richtlinien gegen Gewaltförderung. Amodei schätzt das Risiko einer KI-bedingten Menschheitszerstörung auf 10–25 % (2023).Während OpenAI, xAI und andere KI-Firmen Militärverträge anstreben, hält Anthropic an strengen ethischen Grenzen fest. Der Konflikt wirft Grundsatzfragen auf: Wie weit darf nationale Sicherheit über KI-Sicherheit gehen?