Ein Bundesrichter in Kalifornien hat den Versuch des Pentagons abgelehnt, Anthropic daran zu hindern, seine KI-Tools für staatliche Behörden bereitzustellen, berichtete die BBC. Richterin Rita Lin entschied am Donnerstag, dass Anweisungen des ehemaligen Präsidenten Donald Trump und des aktuellen Verteidigungsministers Pete Hegseth, die eine sofortige Einstellung der Nutzung von Anthropics Tools durch staatliche Behörden forderten, derzeit nicht durchsetzbar seien.
Rechtsstreit um KI und nationale Sicherheit
Richterin Lin entschied nach einem Gerichtsverfahren, das Anthropic, ein KI-Unternehmen mit Sitz in San Francisco, gegen das Pentagon und mehrere andere Bundesbehörden angestrengt hatte. Das Unternehmen argumentierte, dass die Maßnahmen der Regierung seine Grundrechte verletzten und bereits Schaden für das Unternehmen verursachten.
In ihrer Entscheidung sagte Richterin Lin, die Regierung versuche, Anthropic zu „behindern“ und den öffentlichen Diskurs über ihre Technologie zu „dämpfen“. Sie stellte fest, dass die Regierung ihre Ansprüche auf Bedenken bezüglich der Nutzung von Anthropics Tools durch das Verteidigungsministerium gründete, doch die getroffenen Maßnahmen seien nicht unter nationalen Sicherheitsgesetzen gerechtfertigt.
„Dies scheint eine klassische Rache wegen des ersten Amendments zu sein“, schrieb die Richterin in ihrem Urteil. Die Entscheidung bedeutet, dass Anthropics Tools, einschließlich ihres KI-Chatbots Claude, weiterhin von staatlichen Behörden und von jeder externen Firma genutzt werden können, die mit der Armee zusammenarbeitet, bis das Gerichtsverfahren abgeschlossen ist.
Eine Sprecherin von Anthropic sagte, das Unternehmen sei mit dem Urteil des Bundesgerichts in Kalifornien „zufrieden“, fügte aber hinzu, dass sich das Unternehmen weiterhin produktiv mit der Regierung zusammenarbeiten wolle, um sicherzustellen, dass alle Amerikaner von sicherer und zuverlässiger KI profitieren.
Pentagons Argumentation und Antwort von Anthropic
Das Pentagon argumentierte in dem Fall, dass es Angst habe, was Anthropic mit seiner Technologie anstellen könnte, die in staatlichen und militärischen Operationen weit verbreitet ist, aufgrund seiner Weigerung, neue Vertragsbedingungen anzunehmen. Das habe eine echte Notwendigkeit für die Kennzeichnung von Lieferkettenrisiken geschaffen, sagte die Verteidigung.
Richterin Lin stellte in ihrem Urteil fest, dass Trump und Hegseth in ihren öffentlichen Äußerungen Anthropic als „wokistisch“ und bestehend aus „linken Verrückten“ bezeichneten, nicht aufgrund von Sicherheitsmängeln. „Wenn dies nur ein Vertragsstreit gewesen wäre, hätte das Verteidigungsministerium wahrscheinlich einfach die Nutzung von Claude eingestellt“, schrieb Richterin Lin, wobei sie sich auf das Department of War, einen alternativen Namen für das Verteidigungsministerium, bezog. „Die beanstandeten Maßnahmen überschreiten jedoch den Bereich, den man vernünftigerweise zur Sicherung nationaler Sicherheitsinteressen ergreifen könnte.“
Anthropic hatte Monate vor der Einreichung ihrer Klage über neue Forderungen im Zusammenhang mit einem geplanten Ausbau ihres 200-Millionen-Dollar-Vertrags mit dem Verteidigungsministerium verhandelt. Das Pentagon wollte, dass der Vertrag besagte, dass es Anthropics Tools für „jede rechtmäßige Nutzung“ verwenden könne. Anthropic und ihr Chef Dario Amodei fürchteten, dass dies den Weg für die Nutzung ihrer Tools zur Massenüberwachung von Amerikanern und vollautomatisierten Waffen öffnen könnte.
Der Streit um die Vertragsbedingungen kam im Februar in die Öffentlichkeit, als Hegseth einen Fristsetzung für Anthropic stellte, um die neuen Vertragsbedingungen anzunehmen. Das Unternehmen lehnte dies ab, was zu dem Gerichtsverfahren führte.
Auswirkungen auf KI und staatliche Operationen
Anthropics Tools werden derzeit in einer Vielzahl staatlicher und militärischer Operationen genutzt, und die Entscheidung der Richterin bedeutet, dass die Nutzung dieser Tools weiterhin stattfinden wird, bis das Gerichtsverfahren abgeschlossen ist. Der Fall hat Aufmerksamkeit auf die wachsenden Bedenken um KI-Technologie und deren potenzielle Anwendungen in der nationalen Sicherheit und Überwachung gelenkt.
Die Entscheidung hat auch Fragen aufgeworfen, wie der Ausgleich zwischen nationalen Sicherheitsinteressen und der Schutz der Meinungsfreiheit gestaltet wird. Richterin Lins Entscheidung zeigt, wie staatliche Maßnahmen als Versuch wahrgenommen werden können, Dissens zu unterdrücken oder den öffentlichen Diskurs über neue Technologien einzuschränken.
Der Fall wird voraussichtlich weitreichende Auswirkungen auf die Weise haben, wie KI-Unternehmen mit der Regierung interagieren und wie nationale Sicherheitsbedenken im Kontext technologischer Innovationen behandelt werden. Das Ergebnis könnte die Art und Weise beeinflussen, wie andere KI-Unternehmen ähnliche Probleme in Zukunft bewältigen.
Vertreter des Weißen Hauses und des Verteidigungsministeriums reagierten nicht auf Anfragen zu dem Urteil. Anthropic hat gesagt, dass es weiterhin mit der Regierung zusammenarbeiten werde, um sicherzustellen, dass seine KI-Tools in einer Weise genutzt werden, die dem öffentlichen Nutzen zugutekommt, während angemessene Schutzmaßnahmen gewährleistet werden.
Kommentare
Noch keine Kommentare
Be the first to share your thoughts