Anthropic-Chef Dario Amodei hat abgelehnt, einer Ultimatum des Pentagon Folge zu leisten, das das KI-Unternehmen auffordert, seine ethischen Einschränkungen für die Nutzung seiner Technologie zu lockern. Damit riskiert das Unternehmen die Bezeichnung als Risiko für die Lieferkette und den Verlust seines Verteidigungsvertrags; Der Entscheidungszeitpunkt war Freitag um 17:01 Uhr ET, und Amodei erklärte, dass sein Unternehmen ‘nicht in gutem Gewissen’ auf die Forderung eingehen könne.

Lieferkettenrisiko und ethische Schutzmaßnahmen

Die Forderung des Pentagon kommt. Während Anthropic. Bekannt für seinen fortschrittlichen Chatbot Claude, sich schnell von einem kleinen Forschungslabor in San Francisco zu einer der wertvollsten KI-Startups der Welt entwickelt hat. Das Unternehmen hat Sicherheiten gesucht, dass seine Technologie nicht für Massenüberwachung oder vollautomatische Waffen genutzt wird; Laut Anthropic wurde jedoch der vorgeschlagene Vertragsentwurf ‘als Kompromiss formuliert, aber mit Rechtsformulierungen, die es ermöglichen würden, diese Schutzmaßnahmen willkürlich zu ignorieren.’

Sollte Amodei nicht nachgeben. Warnten militärische Beamte. Sie würden nicht nur den Vertrag mit Anthropic beenden, sondern auch ‘das Unternehmen als Risiko für die Lieferkette bezeichnen’, ein Label, das in der Regel für fremde Feinde reserviert ist. Diese Bezeichnung könnte die Partnerschaften des Unternehmens mit anderen Unternehmen stören und seine Expansionspläne gefährden.

Branchenreaktionen und offener Brief

Der Streit hat Unterstützung von führenden KI-Forschern und Technikern in Wettbewerbsunternehmen wie OpenAI und Google gefunden. In einem offenen Brief drückten Mitarbeiter dieser Unternehmen ihre Solidarität mit Amodeis Position aus und sagten, das Pentagon versuche, ‘jedes Unternehmen mit Angst zu teilen, dass das andere nachgibt.’

OpenAI-Chef Sam Altman. Der einst mit Amodei bei OpenAI arbeitete, bevor er Anthropic 2021 mitgründete, äußerte in einem CNBC-Interview Bedenken über den ‘drohenden’ Ansatz des Pentagon. Er sagte, ‘Ich vertraue ihnen als Unternehmen zu und denke, sie kümmern sich wirklich um Sicherheit.’ Altman fügte hinzu, dass OpenAI und die meisten KI-Unternehmen ähnliche rote Linien bezüglich der Nutzung ihrer Technologien teilen.

Elon Musk, ein weiterer großer Akteur im KI-Bereich, vertrat eine andere Position und unterstützte die Trump-Regierung, während er Anthropic kritisierte, angeblich für die Ablehnung ‘der westlichen Zivilisation’. Musks Kommentare reagierten auf eine frühere Version der Leitprinzipien von Anthropic, die ‘die Berücksichtigung nicht-westlicher Perspektiven’ betonten.

Historische Parallelen und rechtliche Bedenken

Der ehemalige Luftwaffen-General Jack Shanahan, ein früherer Leiter der KI-Initiativen des Verteidigungsministeriums, hat Bedenken hinsichtlich des Ansatzes des Pentagon geäußert. Er erinnerte sich an den Widerstand der Google-Mitarbeiter während des Projekts Maven, das KI nutzte, um Drohnenfilme für militärische Operationen zu analysieren. Shanahan, der dieses Projekt leitete, sagte, er sei ‘mit Anthropics Position sympathisch’ und glaube, dass die KI-Modelle in Chatbots wie Claude ‘für nationale Sicherheitsanwendungen nicht bereit seien.’

Sean Parnell, der Chef-Sprecher des Pentagon, erklärte, dass die Streitkräfte ‘Anthropics Modell für alle rechtmäßigen Zwecke nutzen wollen’ und dass eine Erweiterung des Zugangs verhindern würde, dass das Unternehmen ‘kritische militärische Operationen gefährdet’. Beamte haben jedoch keine konkreten Details über die Nutzung der Technologie gegeben.

Während eines Treffens zwischen Verteidigungsminister Pete Hegseth und Amodei warnten militärische Beamte, sie könnten das Defense Production Act anwenden, ein Gesetz aus der Zeit des Kalten Krieges, das dem Militär weitreichende Befugnisse verleiht, Anthropics Produkte zu nutzen, auch wenn das Unternehmen nicht zustimmt. Amodei nannte dies einen Widerspruch, da eine Drohung Anthropic als Sicherheitsrisiko bezeichnet, während die andere die Bedeutung von Claude für die nationale Sicherheit betont.

Amodei sagte, er hoffe, dass das Pentagon sein Angebot überdenke, gegeben die Bedeutung von Claude für die Streitkräfte. Sollte dies nicht geschehen, sagte er, werde Anthropic ‘sich dafür bemühen, einen reibungslosen Übergang zu einem anderen Anbieter zu ermöglichen.’

Der Streit über die ethische Nutzung von KI in militärischen Anwendungen hat sich verschärft, während große Technologieunternehmen den Balanceakt zwischen Innovation und Verantwortung navigieren. Mit der Unterstützung von Schlüsselakteuren der Branche für die Position von Anthropic bleibt die Situation hochbrisant und könnte zukünftige Richtlinien für KI-Regulierung und nationale Sicherheit beeinflussen.