Laut mehreren Berichten soll das US-Militär Anthropics KI-Modell Claude bei Angriffen auf den Iran am 28. Februar eingesetzt haben. Dies geschah trotz eines Streits über ethische Grenzen und eines anschließenden Verbots durch die Trump-Regierung. Dies markiert die erste bestätigte Nutzung eines großen Sprachmodells (LLM) in einer realen militärischen Operation und signalisiert eine neue Ära im Krieg, in der KI eine zentrale Rolle in der Aufklärung, Zielidentifikation und Kriegssimulation spielt.

KI-Integration im Pentagon

Das US-Verteidigungsministerium hat seit mindestens 2024 KI-Modelle und -Tools für militärische Zwecke gesammelt. Im Juli 2025 verlieh das Pentagon Anthropic einen Vertrag im Wert von bis zu 200 Millionen US-Dollar für KI-Dienste, einschließlich der Nutzung seiner Claude-Modelle. Öffentliche Unterlagen zeigen, dass bis Mitte 2026 nur ein kleiner Teil des Vertrags gezahlt wurde, was auf eine schrittweise Integration statt auf einen Einzelkauf hindeutet.

Anthropic begann ab Ende 2024 intensiv mit US-Verteidigungs- und Nachrichtendiensten zusammenzuarbeiten. Im November 2024 kooperierte das Unternehmen mit Palantir und Amazon Web Services, um Claude für US-Verteidigungs- und Nachrichtensysteme, einschließlich vertraulicher Umgebungen, bereitzustellen. Im Juni 2025 führte Anthropic Claude Gov ein, eine Version, die für Regierungs- und nationale Sicherheitsaufgaben optimiert ist, die bis Ende 2025 in US-Nachrichten- und Verteidigungsbehörden aktiv genutzt wurde.

Rolle von Claude bei den Angriffen auf den Iran

Laut Berichten wurden Anthropics Claude-KI-Modelle in der Aufklärung, Zielidentifikation und Kriegssimulation für das US-Militär eingesetzt. Der US-Zentralkommando (Centcom) im Nahen Osten verwendete die Modelle, um riesige Datenmengen zu verarbeiten und zu analysieren, einschließlich Abhördaten, Satellitenbilder und Signaleintelligenz, um Zusammenfassungen, Bedrohungsbeurteilungen und situative Einsichten zu erstellen.

Anthropics KI-Modelle wurden nicht unabhängig zur Steuerung von Waffensystemen während der Angriffe auf den Iran eingesetzt. Stattdessen lieferten sie Einsichten, Zusammenfassungen und Simulationen für menschliche Operatoren. Die Berichte zeigen, dass Claude nicht zur Entscheidung über tödliche Angriffe ohne menschliche Aufsicht verwendet wurde und nicht als Hauptakteur der Angriffe diente.

Trotz eines Verbots durch Präsident Donald Trump Ende Februar war die Integration von Claude in die Aufklärung, Kriegssimulation und Zielidentifikation so tief, dass die Angriffe auf den Iran mit Unterstützung von Claude dennoch stattfanden.

Vertragstreit und Alternativen

Der Streit zwischen dem Pentagon und Anthropic drehte sich um die Nutzungsberechtigung. Das Pentagon verlangte breitere Rechte zur Nutzung von Claude für alle rechtmäßigen Zwecke, einschließlich potenzieller Zielidentifikation und Waffenunterstützung. Anthropic weigerte sich, seine ethischen Einschränkungen zu entfernen, die Teil seines Constitutional AI-Frameworks sind. Das bedeutet, dass Claude programmiert ist, den Einsatz in vollständig autonomen tödlichen Waffen abzulehnen und keine Angriffe ohne menschliche Aufsicht zu genehmigen.

OpenAI’s ChatGPT und die zugrunde liegenden GPT-Reihe-Modelle, einschließlich Frontier-LLMs wie o1 oder Nachfolger, wurden vom Pentagon eingesetzt. Nach dem Streit mit Anthropic erreichte OpenAI eine neue Vereinbarung zur klassifizierten Netzwerkverbreitung seiner Modelle und Tools mit Sicherheitsvorkehrungen.

Alphabet, der Mutterkonzern von Google, hat Gemini for Government-Produkte an das Pentagon geliefert, die für unklassifizierte Nutzung verfügbar sind, einschließlich der Plattform GenAI.mil, die Ende 2025 startete. Das Unternehmen ist in Verhandlungen über eine Ausweitung in klassifizierte Systeme.

Elon Musks xAI, der Mutterkonzern von Grok, hat eine Suite für militärische Nutzung bereitgestellt, zunächst für unklassifizierte Aufgaben. Das Unternehmen unterzeichnete im Februar einen Vertrag zur Nutzung in klassifizierten Systemen, was es als potenzielle schnelle Alternative im Streit mit Anthropic positioniert.

Mit dem Rückzug von Anthropic aus erweiterten Vertragsbedingungen traten OpenAI und xAI rasch ein, um die klassifizierten KI-Bedürfnisse des US-Militärs zu decken. Dies zeigt eine wachsende Abhängigkeit von KI für militärische Operationen, insbesondere in der Aufklärung, Zielidentifikation und operativen Simulationen.

Eines ist jetzt sehr klar: KI ist bis Mitte 2026 tief in die Planung und Ausführung militärischer Operationen in den USA integriert, insbesondere in der Aufklärung, Zielidentifikation und operativen Simulationen. Das wurde bei den Angriffen auf den Iran deutlich. Sie wird erneut genutzt werden. Wir befinden uns bereits in der Ära des Krieges mit KI.