Präsident Donald Trump ordnete einen großen Luftangriff in Iran an, bei dem Anthropics KI-Tools verwendet wurden, nur Stunden nachdem er das Unternehmen vom Bundesgebrauch verbot. Dies offenbart ein komplexes und unmittelbares Konflikt zwischen Politik und militärischen Operationen.

KI-Tools von Anthropic in militärischen Operationen

Laut Quellen, die mit der Situation vertraut sind, hat das US-Zentralkommando (Centcom) das KI-Tool Claude von Anthropic für die Bewertung von Geheimdienstinformationen, Zielidentifikation und Simulation von Schlachtszenarien im Nahen Osten genutzt. Das Tool war für die laufenden Operationen gegen Iran entscheidend, obwohl die Regierung kürzlich beschloss, seine Nutzung zu verbieten.

Centcom bestätigte nicht, ob das KI-Tool bei den kürzlichen Angriffen genutzt wurde, doch seine Rolle in prominenten Missionen, wie der US-Militäraktion zur Verhaftung des venezolanischen Präsidenten Nicolás Maduro, unterstreicht seine tiefgreifende Integration in militärische Planung.

Die Nutzung von Claude in diesen Szenarien zeigt die Herausforderungen, die mit der Ausphasierung der Technologie verbunden sind. Die Regierung sagte, dass der Übergang sechs Monate dauern werde, ein Prozess, der durch die weit verbreitete Nutzung des Tools bei Partnern wie der Datenanalysefirma Palantir kompliziert wird.

Tensionen zwischen Pentagon und Anthropic

Die Regierung und Anthropic sind seit Monaten in Streit über die Nutzung der KI-Modelle durch das Pentagon. Trump verbot Bundesbehörden, mit dem Unternehmen zusammenzuarbeiten, und das Verteidigungsministerium hat es als Sicherheitsbedrohung und Risiko für seine Lieferketten bezeichnet.

Diese Entscheidung folgte auf Anthropics Weigerung, dem Pentagon die Nutzung seiner Tools in allen rechtmäßigen Szenarien während Verhandlungen über Verträge zu erlauben. Zudem haben Anthropics Lobbyarbeit gegen die KI-Politik der Regierung und seine Verbindungen zu Organisationen, die bedeutende Spender für die Demokraten sind, die Beziehungen zur Trump-Regierung weiter belastet.

Laut einem Pentagon-Offiziellen führte der Streit zu Verträgen mit Wettbewerbern wie OpenAI, dem Hersteller von ChatGPT, und Elon Musks xAI, für die Nutzung in geheimen Umgebungen. Experten für KI sagen jedoch, dass es Monate dauern wird, um Claude mit diesen Modellen zu ersetzen, wegen der Komplexität des Übergangs.

Auswirkungen auf militärische Operationen

Die Nutzung von KI-Tools von Anthropic in militärischen Operationen hat bedeutende Auswirkungen auf die Effektivität und Geschwindigkeit der US-Militärreaktionen. Laut einem Militäranalysten wurden die Tools genutzt, um riesige Datenmengen zu verarbeiten und Echtzeit-Einsichten zu liefern, die in kritischen Szenarien entscheidend sind.

„Diese KI-Tools sind zu einem Teil des operativen Gewebes der Streitkräfte geworden“, sagte ein Verteidigungsanalyst, der Anonymität wünschte. „Ihre sofortige Entfernung würde Operationen stören und potenziell Entscheidungen auf dem Schlachtfeld verzögern.“

Die Situation wirft auch Fragen nach der Zuverlässigkeit alternativer KI-Modelle und dem Risiko von operativen Verzögerungen während des Übergangs auf. Die Regierung hat keinen detaillierten Zeitplan für den Ersatz von Claude durch andere Modelle bereitgestellt.

Anthropic hat sich nicht zu dem Verbot der Regierung geäußert, doch das Unternehmen hat zuvor erklärt, dass es sich verpflichtet sieht, die verantwortungsvolle Nutzung seiner Technologie sicherzustellen. Es hat auch betont, dass es sich auf ethische KI-Entwicklung und Transparenz in seinen Operationen konzentriere.

Die kürzlichen Angriffe im Nahen Osten, die angeblich KI-Tools von Anthropic nutzten, haben Debatten über die Rolle von KI in militärischen Operationen erneut entfacht. Der Vorfall unterstreicht die Herausforderungen, politische Entscheidungen mit den praktischen Bedürfnissen der Streitkräfte abzustimmen.

Da die Regierung mit ihrem Verbot von Anthropic weitermacht, steht das Pentagon vor der anspruchsvollen Aufgabe, ein Tool zu ersetzen, das sich tief in seine Operationen eingebettet hat. Dieser Prozess könnte Monate dauern, während das Militär möglicherweise auf weniger entwickelte oder weniger integrierte Alternativen zurückgreifen muss.

Als sich die Situation weiterentwickelt, bleiben die Auswirkungen auf die nationale Sicherheit und die breitere KI-Industrie unklar. Die Nutzung von KI in militärischen Operationen wird voraussichtlich in den nächsten Monaten ein umstrittenes und schnell sich veränderndes Thema bleiben.