Microsoft und eine Gruppe ehemaliger militärischer Führungskräfte haben sich zusammengetan, um die Bezeichnung der KI-Firma Anthropic als Lieferkettenrisiko durch die Trump-Regierung zu blockieren. Der Schritt folgt auf die Aussage des Verteidigungsministers Pete Hegseth, der die Produkte des KI-Unternehmens als Bedrohung für die nationale Sicherheit bezeichnete und damit den Zugang zu militärischen Verträgen verwehrte.
Rechtliche Einigung gegen die Entscheidung des Pentagon
In einer kürzlich eingereichten rechtlichen Beschwerde kritisierte Microsoft die Entscheidung von Verteidigungsminister Pete Hegseth, der letzte Woche die Ausschluss von Anthropic aus militärischen Projekten veranlasste, indem er die KI-Produkte als Bedrohung für die nationale Sicherheit bezeichnete. Der Softwaregigant argumentiert, dass die Bezeichnung eine Missbrauch der staatlichen Befugnisse sei und schwerwiegende wirtschaftliche Folgen haben könnte, die nicht im öffentlichen Interesse lägen.
Die Beschwerde wurde im Bundesgericht in San Francisco eingereicht, wo Anthropic seinen Sitz hat. Darin heißt es, dass die Maßnahme des Pentagon „die Vertragspartner verpflichtet, vagen und unklaren Anweisungen zu folgen, die bislang niemals öffentlich gegen ein US-Unternehmen angewandt wurden“. Microsoft beantragt, die Bezeichnung vorübergehend aufzuheben, um eine „gründlichere Diskussion“ zwischen Anthropic und der Trump-Regierung zu ermöglichen.
Der rechtliche Streit wird nicht nur von Microsoft geführt. Eine Gruppe von 22 ehemaligen hochrangigen US-Militäroffizieren, darunter ehemalige Verteidigungsminister der Luftwaffe, Armee und Marine sowie ein ehemaliger Chef der Küstenwache, hat ebenfalls eine Gerichtsakte eingereicht. Sie argumentieren, dass Hegseths Handlungen eine Rache gegen ein Privatunternehmen seien, das die Führung nicht zufrieden stellte, und warnen, dass die Maßnahme die Prinzipien der Rechtsstaatlichkeit gefährde, die die Streitkräfte lange gestärkt haben.
Ethikbedenken und Vertragsstreitigkeiten
Der Streit mit dem Pentagon begann, nachdem Anthropic die unbeschränkte militärische Nutzung seines KI-Modells „Claude“ verweigerte. Dieser Widerstand löste eine öffentliche Auseinandersetzung mit der Trump-Regierung aus, die daraufhin alle Bundesbehörden aufforderte, das KI-Modell nicht mehr zu nutzen. Präsident Donald Trump gab zudem Anweisungen, die Nutzung von „Claude“ in Bundesoperationen zu beenden.
Microsofts Einreichung unterstützt die beiden ethischen Grenzen, die in den Verhandlungen ein Hindernis darstellten. Das Unternehmen betont, dass amerikanische KI nicht für die Durchführung von Massenüberwachung im Inland oder den Beginn von Kriegen ohne menschliche Kontrolle genutzt werden sollte. Diese Position, so Microsoft, entspricht dem Gesetz und wird weitgehend von der amerikanischen Gesellschaft unterstützt, wie es die Regierung anerkennt.
Microsofts rechtliche Stellungnahme betont auch die mögliche wirtschaftliche Auswirkung der Entscheidung des Pentagon. Als großer Vertragspartner der Regierung warnt das Unternehmen, dass die Bezeichnung als Lieferkettenrisiko zu erheblichen finanziellen Folgen führen könnte und die breitere KI-Industrie stören könnte.
Auch andere Technologieunternehmen und Organisationen haben Anthropic unterstützt. Eine Gruppe von KI-Entwicklern aus Google und OpenAI sowie Organisationen wie der Cato Institute und der Electronic Frontier Foundation haben eigene rechtliche Dokumente eingereicht, um das Unternehmen zu unterstützen.
Militärische Führung und nationale Sicherheitsbedenken
Die Gruppe ehemaliger militärischer Führungskräfte umfasst prominente Persönlichkeiten wie den ehemaligen CIA-Direktor Michael Hayden, einen ehemaligen Luftwaffen-General und den ehemaligen Küstenwachtkommandanten Thad Allen, der die Regierungsreaktion auf Hurrikan Katrina leitete. Ihre Beschwerde betont, dass die Maßnahmen des Pentagon nicht im Interesse der nationalen Sicherheit liegen, sondern die Rechtsstaatlichkeit untergraben.
Richterin Rita Lin, die 2022 von Präsident Joe Biden zum Richter ernannt wurde, leitet den Fall im Bundesgericht in San Francisco. Anthropic hat zudem einen separaten und engere Fall im Bundesberufungsgericht in Washington, D.C. eingebracht. Lin hat eine Anhörung für den 24. März angesetzt.
Obwohl weder die rechtliche Beschwerde direkt auf den Krieg im Iran hinweist, der kurz nach der Strafverfolgung von Anthropic durch Trump und Hegseth begann, haben ehemalige militärische Beamte gewarnt, dass die plötzliche Unsicherheit bei der Zielsetzung einer Technologie, die weit verbreitet in militärischen Plattformen eingesetzt wird, die Planung stören und Soldaten während laufender Operationen in Gefahr bringen könnte.
Der aktuelle Kommandant des US-Zentralkommandos, Admiral Brad Cooper, bestätigte in einem kürzlichen Social-Media-Post, dass die Streitkräfte „fortgeschrittene KI-Tools“ nutzen, um „in Sekunden riesige Datenmengen zu durchsuchen“. Er betonte jedoch, dass „Menschen immer die endgültigen Entscheidungen treffen werden, was abgeschossen werden soll und was nicht, und wann abgeschossen werden soll“.
Anthropic war bis vor kurzem die einzige seiner Art, die für die Nutzung in geheimen militärischen Netzwerken genehmigt war. Aufgrund des Streits mit dem Pentagon haben militärische Beamte jedoch angekündigt, die Arbeit an diesen Projekten an Wettbewerber wie Google, OpenAI und Elon Musks xAI zu verlagern.
Comments
No comments yet
Be the first to share your thoughts