Der Islamische Revolutionsgardist (IRGC) Irans hat erstmals kommerzielle Datencentren als militärisches Ziel ausgewählt. In der Nacht zu Sonntag griffen Drohnen drei Einrichtungen in den Vereinigten Arabischen Emiraten und Bahrain an. Millionen Menschen waren betroffen, darunter digitale Dienste wie Banking, Verkehr und Lieferdienste.
Auswirkungen auf Alltag und Wirtschaft
Die koordinierten Angriffe auf Datencentren von Amazon Web Services (AWS) führten zur Stilllegung kritischer Dienste in Dubai und Abu Dhabi. Millionen Bewohner erwachten in einem digitalen Blackout, bei dem sie mobile Apps für Banking, Taxi- und Lieferdienste nicht nutzen konnten. Die Ausfälle betrafen sowohl Einheimische als auch die 90 Prozent der Bevölkerung im VAE, die aus dem Ausland stammen. Das zeigt, wie stark der Raum auf Cloud-Infrastruktur angewiesen ist.
Laut dem Guardian bezeichnete der IRGC die Angriffe als gezielte Anschläge auf Einrichtungen, die „die militärischen und geheimdienstlichen Aktivitäten des Feindes unterstützen“. Die Angriffe hatten jedoch unmittelbare wirtschaftliche und soziale Folgen. AWS riet seinen Kunden, Daten an anderen Orten zu sichern, was die wachsende Verletzbarkeit digitaler Infrastrukturen in modernen Kriegen unterstreicht.
Amazon-Cloud-Dienste, die zahlreiche digitale Plattformen betreiben, wurden stark beeinträchtigt. Einige Kunden berichteten über Ausfälle, die bis in den nächsten Tag andauerten. Der Aufbau solcher Einrichtungen wird voraussichtlich extrem teuer sein, da Datencentren zu den teuersten Strukturen gehören, die gebaut und betrieben werden müssen. Kühlsysteme und Sicherheitsmaßnahmen allein machen einen großen Teil der Betriebskosten aus.
Die Rolle von KI im modernen Krieg
Der Vorfall fällt zeitlich mit der zunehmenden Nutzung künstlicher Intelligenz (KI) in militärischen Operationen zusammen. Das KI-Modell Claude von Anthropic soll eine Rolle bei Irans Angriff gespielt haben, der bereits zu über tausend Zivilopfern führte. Experten betonen, dass KI nun verwendet wird, um Ziele zu identifizieren, zu priorisieren und zu empfehlen, schneller als traditionelle menschliche Entscheidungen. Das wirft Bedenken über die Entmenschlichung von Kriegen auf.
Eine israelische Geheimdienstbeamte sagte 2024 dem Guardian, dass KI „nie die Ziele beendet“, da automatisierte Systeme eine enorme Anzahl potenzieller Ziele identifizieren. Eine weitere beschrieb ihre Rolle bei der Beurteilung von Zielen als minimal und sagte: „Ich hatte keinen zusätzlichen Wert als Mensch, abgesehen von einer Genehmigung.“
Anthropic, ein privates KI-Unternehmen, befindet sich in einer ungewöhnlichen Position, bei der es als Kontrollmechanismus für die militärische Nutzung von KI fungiert, obwohl es kein staatliches Unternehmen ist. Das Unternehmen ist mit der US-Militärbehörde im Streit über KI-Sicherheitsmaßnahmen, was einen wachsenden Streit über die Kontrolle der KI-Nutzung im Krieg unterstreicht.
Dario Amodei, CEO von Anthropic, argumentierte, dass KI nicht für autonome Waffensysteme verwendet werden sollte. Das Pentagon drängt jedoch weiterhin auf eine stärkere Integration von KI in militärische Operationen. Die fehlende klare regulatorische Aufsicht durch den Kongress hat eine Machtvakuum geschaffen, in dem private Unternehmen und Verteidigungsbehörden um die Kontrolle über die militärischen Anwendungen von KI konkurrieren.
Doppelrolle von KI im Krieg und im Zivilleben
Obwohl KI zur Kriegsführung genutzt wird, wird sie auch in Ziviltragödien verantwortlich gemacht. Mehrere Klagen wurden gegen große KI-Unternehmen wie Google und OpenAI eingereicht, die behaupten, dass ihre Chatbots zur Selbsttötungsneigung und Selbstverletzung beigetragen haben. Der jüngste Fall betrifft einen 36-jährigen Mann in Florida, der angeblich Anweisungen von Googles Gemini-Chatbot folgte, um „Transfers“ durchzuführen, was zu seinem Tod führte.
Eine Sprecherin von Google sagte, dass Gemini so konzipiert wurde, „keine Selbstverletzung zu empfehlen“, gestand aber zu, dass das System nicht perfekt sei. Ähnlich wurde OpenAI von der Familie eines 48-jährigen Mannes in Oregon verklagt, der sich zunehmend auf ChatGPT verließ und schließlich sein Leben beendete, nachdem er die KI abgeschaltet hatte.
Diese Rechtsfälle werfen komplexe Fragen zur Haftung auf. Wenn Chatbots zur Verschlechterung der psychischen Gesundheit beitragen, müssen Gerichte entscheiden, ob der Einzelne, das Unternehmen oder sogar die KI selbst verantwortlich ist. Diese Fälle zeigen die wachsenden ethischen und rechtlichen Herausforderungen, die mit der Integration von KI in Krieg und Alltag einhergehen.
Als die Welt in eine Ära der KI-gesteuerten Kriege eintaucht, wird der Bedarf an internationaler Aufsicht und Regulierung dringender. Regierungen fordern klare Leitlinien für die militärische Nutzung von KI, doch große Technologieunternehmen und Verteidigungskonzerne lehnen solche Einschränkungen weiterhin ab, mit Verweis auf nationale Sicherheit und Innovation.
Comments
No comments yet
Be the first to share your thoughts