Anthropic, ein führendes KI-Unternehmen mit Sitz in San Francisco, hat zwei Klagen in Bundesgerichten eingereicht, um die Bezeichnung des Verteidigungsministeriums, das die Firma als ‘Lieferkettenrisiko’ einstuft, zu bekämpfen. Die Klagen, die am Montag in Kalifornien und beim Berufungsgericht in Washington, D.C. eingereicht wurden, argumentieren, dass die Maßnahmen des Verteidigungsministeriums rechtswidrig und eine Übergriff der Exekutive sind.

Rechtsstreit gegen die Bezeichnung des Verteidigungsministeriums

Das Verteidigungsministerium stufte Anthropic letzte Woche offiziell als Lieferkettenrisiko ein, nach einem hoch sichtbaren Streit über die potenziellen militärischen Anwendungen seiner KI-Technologie. Diese Bezeichnung verbietet der Firma, an Verteidigungsverträgen teilzunehmen, und könnte schwerwiegende Folgen für ihre Geschäftsaktivitäten haben.

Anthropics Klage argumentiert, dass die Regierungshandlungen einzigartig sind und Verfassungsschutz für freie Rede verletzen. Das Unternehmen behauptet, dass keine Bundesgesetze die Handlungen des Verteidigungsministeriums rechtfertigen und dass die Bezeichnung eine rechtswidrige Rache für die Haltung des Unternehmens zur KI-Ethik darstellt.

„Die Verfassung erlaubt der Regierung nicht, ihre enorme Macht einzusetzen, um ein Unternehmen für seine geschützte Rede zu bestrafen“, heißt es in der Klage. „Kein Bundesgesetz rechtfertigt die hier getroffenen Maßnahmen. Anthropic wendet sich an das Gericht als letzte Instanz, um ihre Rechte zu vertreten und das ungesetzliche Retributionsprogramm der Exekutive zu stoppen.“

KI-Ethik und militärische Nutzung

Anthropic hat sich öffentlich für die ethische Nutzung von KI ausgesprochen, insbesondere gegen die Nutzung seiner Technologie für Massenüberwachung von Amerikanern und vollautomatische Waffen. Verteidigungsminister Pete Hegseth und andere Beamte insistierten öffentlich darauf, dass das Unternehmen „alle rechtmäßigen Anwendungen“ von Claude akzeptieren müsse und drohten mit Sanktionen, falls Anthropic nicht kooperierte.

Die Bezeichnung von Anthropic als Lieferkettenrisiko markiert einen bedeutenden Bruch mit früheren Praktiken, da es sich um den ersten bekannten Fall handelt, in dem die Bundesregierung diese Befugnis gegen ein US-Unternehmen ausübt. Diese Bezeichnung war ursprünglich dafür gedacht, um fremde Feinde daran zu hindern, nationale Sicherheitssysteme zu gefährden, doch ihre Anwendung auf ein inländisches Unternehmen hat Fragen zu ihrem Umfang und ihrer Absicht aufgeworfen.

Präsident Donald Trump kündigte an, dass er die Bundesbehörden anweisen würde, die Technologie von Anthropic nicht mehr zu verwenden, obwohl er dem Verteidigungsministerium sechs Monate gewährte, um Produkte auszuphaseden, die tief in geheimen militärischen Systemen verankert sind, einschließlich solcher, die im Krieg gegen den Iran verwendet werden.

Auswirkungen auf Geschäfts- und Einnahmen

Anthropics Klagen erwähnen auch andere Bundesbehörden, einschließlich des Finanz- und Außenministeriums, nachdem Beamte angewiesen wurden, die Dienste des Unternehmens nicht mehr zu nutzen. Das Unternehmen hat klargestellt, dass die Strafen der Trump-Regierung sich auf militärische Auftragnehmer beschränken, die Claude in Verteidigungsangelegenheiten verwenden.

Die Klärung dieses Unterschieds ist für Anthropic entscheidend, da die meisten seiner geschätzten 14 Milliarden US-Dollar an Umsatz in diesem Jahr aus Unternehmen und Regierungsbehörden stammen, die Claude für Aufgaben wie Computerprogrammierung nutzen. Laut einer kürzlich gemachten Investitionsankündigung ist das Unternehmen mit einem Wert von 380 Milliarden US-Dollar bewertet, und mehr als 500 Kunden zahlen jährlich mindestens eine Million US-Dollar für seine KI-Dienste.

Anthropic erklärte in einer Mitteilung am Montag, dass „die Suche nach gerichtlicher Prüfung unsere langfristige Verpflichtung nicht verändert, KI einzusetzen, um unsere nationale Sicherheit zu schützen, doch dies ist ein notwendiger Schritt, um unser Unternehmen, unsere Kunden und unsere Partner zu schützen.“

Das Verteidigungsministerium kommentierte die Klagen nicht, da es eine Politik hat, keine laufenden Gerichtsverfahren zu kommentieren. Rechtsanwälte deuten an, dass das Ergebnis dieser Fälle wichtige Präzedenzfälle für die Regulierung von KI-Technologien und das Gleichgewicht zwischen nationaler Sicherheit und Unternehmensrechten setzen könnte.

Während der rechtliche Streit weitergeht, bleiben die Auswirkungen auf Anthropic und die breitere KI-Industrie unklar. Die Klagen könnten zukünftige Richtlinien für die Nutzung von KI in der nationalen Sicherheit und den regulatorischen Rahmen für neue Technologien beeinflussen.