WASHINGTON — Die Spannungen zwischen dem Pentagon und Anthropic eskalierten in dieser Woche, als das Verteidigungsministerium erwog, einen Vertrag mit der KI-Firma zu beenden.
Verteidigungsbeamte waren enttäuscht über das Zögern von Anthropic, sich auf erweiterte Bedingungen für ihren Chatbot Claude zu einigen. Das Pentagon wollte Zugang zu allen rechtmäßigen Anwendungen, wie ein Bericht Ende letzten Monats berichtete. Verhandlungen zogen sich hin.
Der Bruchpunkt kam, als bekannt wurde, dass Palantir, ein Partner von Anthropic, Claude während einer Operation zur Verhaftung Maduros in Venezuela eingesetzt hatte. Anthropic fragte Palantir nach den Details dieser Einsetzung. Die Beamten des Pentagon reagierten schnell.
Die Fragen brachten das Ministerium zum Ärger, und es drohte, Anthropic mit einer Kennzeichnung als Risiko für die Lieferkette zu belegen. Solche Bezeichnungen richten sich normalerweise gegen ausländische Unternehmen wie Huawei und verpflichten die Streitkräfte, kommerzielle Beziehungen zu beenden. Anthropic besitzt eine einzigartige Genehmigung, klassifizierte Materialien unter großen Sprachmodellen zu verarbeiten.
Diese Kennzeichnung würde die Beziehungen kurz vor der erwarteten Börsennotierung von Anthropic stören. Das Unternehmen, das in der letzten Finanzierungsrunde einen Wert von 18,4 Milliarden Dollar hatte, verlässt sich auf staatliche Verträge während seiner schnellen Expansion.
Anthropics CEO Dario Amodei betonte, das Unternehmen habe keine politischen Motive. In einer Erklärung beschrieb das Unternehmen die Gespräche mit dem Pentagon als produktiv. Laut Unternehmensvertretern war die Nachfrage bei Palantir Teil einer Standarddiskussion und Routineprüfung.
Detaillierte Informationen zur Verwendung von Claude bei der Operation gegen Maduro bleiben unklar. Palantir, ein großer Verteidigungsauftragnehmer, integrierte den Chatbot in ihre Plattformen. Die Razzia richtete sich gegen Maduro während politischer Unruhen in Venezuela letztes Jahr.
Sprecher des Pentagon lehnten einen Kommentar zu der Drohung ab. Eine Quelle im Ministerium bestätigte die Eskalation gegenüber der Wall Street Journal. Der Vertrag von Anthropic, der in der niedrigen Millionenhöhe liegt, umfasst die Einsetzung von Claude für nationale Sicherheitsaufgaben.
Der Streit unterstreicht tiefere Spannungen um die Regulierung von KI. Das Pentagon drängt auf breiten Zugang zu modernen Tools. Startups wie Anthropic legen den Schwerpunkt auf Sicherheitsvorkehrungen und Transparenz. Amodei hat öffentlich für Grenzen bei militärischen KI-Anwendungen plädiert.
Selbst eine Lösung könnte die größeren Debatten nicht beenden. Wer kontrolliert mächtige KI-Systeme – Entwickler, Endnutzer oder Regulierer? Die Fragen bleiben bestehen, während die US-Streitkräfte sich bemühen, KI in der Konkurrenz mit China zu integrieren.
Anthropic startete Claude 2023 als Konkurrent von OpenAIs ChatGPT. Mit Investitionen von Amazon und Google in Milliardenhöhe betont das Unternehmen konstitutionelle KI, um menschliche Werte zu berücksichtigen. Das Unternehmen beschäftigt über 500 Mitarbeiter in San Francisco.
Verteidigungsverträge bilden nur einen kleinen Teil der Umsätze von Anthropic, die von kommerziellen Cloud-Verträgen überwiegt. Dennoch könnte der Verlust der Genehmigung Risiken für Investoren vor der Börsennotierung signalisieren, die voraussichtlich im zweiten Halbjahr 2025 stattfinden wird.
Beobachter der Branche sehen den Vorfall als Testfall. Ähnliche Streitigkeiten sind bei anderen KI-Anbietern aufgetreten. OpenAI stand vor der Prüfung seiner militärischen Beziehungen, bevor es sich auf den Fokus auf Verbraucher konzentrierte. xAI, Elons Musk Venture, strebt aktiv nach Verteidigungsgeldern.
Für den Moment signalisieren beide Seiten Bereitschaft, zu verhandeln. Anthropic betonte erneut seine Verpflichtung gegenüber der nationalen Sicherheit der USA. Das Pentagon benötigt KI-Expertise, während klassifizierte Aufgaben steigen.
Das Ergebnis könnte die Art und Weise verändern, wie KI-Unternehmen mit der Regierung zusammenarbeiten. Entwickler könnten die Bedingungen verschärfen. Streitkräfte weltweit passen sich entsprechend an.
Comments
No comments yet
Be the first to share your thoughts