Louis Mosley, Chef von Palantir UK, erklarte der BBC in einem exklusiven Interview, dass die Verantwortung fuer die Nutzung von KI-Targeting-Systemen in Kriegen bei den Streitkraeften liegt, nicht bei der Firma. Dies geschieht im Kontext wachsender Bedenken bezueglich der Nutzung von Palantirs KI-gestutzten Verteidigungsplattform Maven Smart System in US-Angriffen auf Iran.
KI in militaerischen Operationen
Das Maven Smart System. Von der Pentagon im Jahr 2017 gestartet. Es ist darauf ausgelegt, militaerische Zielentscheidungen zu beschleunigen, indem es riesige Datenmengen analysiert, einschliesslich Nachrichtendienstinformationen, Satelliten- und Drohnenbilder. Das System gibt Empfehlungen fuer Zielsetzungen und kann basierend auf der Verfuegbarkeit von Personal und militaerischer Ausruestung, wie Flugzeugen, den Grad der Gewalt vorschlagen.
Experten haben Bedenken geaeusert, dass die Nutzung solcher Systeme in Kriegen zu falsch ausgewaehlten Zielen fuehren koennte, einschliesslich Zivilisten. Im Februar erklarte die Pentagon, dass sie das KI-System von Anthropic, Claude, nach und nach auslaufen lassen wuerde, nachdem das Unternehmen sich geweigert hatte, dessen Nutzung in autonomen Waffen und Aufklaerung zu erlauben. Palantir hat erklart, dass Alternativen das System ersetzen koennen.
Seit Beginn des Krieges mit Iran im Februar hat sich die USA angeblich Maven genutzt, um Angriffe im ganzen Land zu planen. Als gefragt wurde, ob Maven falsche Ziele vorschlagen koenne, sagte Mosley, dass die Plattform nur dazu diene, die Entscheidungsfindung fuer militaerisches Personal zu beschleunigen und nicht als automatisiertes Zielsetzungssystem angesehen werden sollte.
Menschliche Kontrolle bei KI-Entscheidungen
Mosley betonte, dass immer ein Mensch im Entscheidungsprozess beteiligt sei, um sicherzustellen, dass die finale Entscheidung bei militaerischen Personal liegt. Er erklarte: ‘Immer ein Mensch ist im Entscheidungsprozess, also immer ein Mensch trifft die letzte Entscheidung. Das ist die aktuelle Ausrichtung.’
Allerdings verwies Mosley auf die einzelnen Streitkraefte, als ihn auf die Gefahr gefragt wurde, dass zeitdrangvollen Kommandanten ihre Offiziere auffordern koennten, die Ausgaben von Maven als Genehmigung zu betrachten. ‘Das ist wirklich eine Frage fuer unsere militaerischen Kunden. Sie entscheiden, welche politischen Rahmenbedingungen festgelegt werden, die bestimmen, wer welche Entscheidung treffen darf,’ sagte er.
Adm Brad Cooper, Chef der US-Streitkraeften in der Nahen Ost, lobte KI-Systeme fuer ihre Hilfe bei der ‘Schnellanalyse riesiger Datenmengen, so dass unsere Fuhrung schneller durch das Rauschen kommen und intelligenter entscheiden kann, als der Feind reagieren kann.’
Aber einige Experten warnen, dass die Prioritaet von Geschwindigkeit und Skalierung bei der Planung von Missionen erhebliche Risiken mit sich bringt. Prof Elke Schwarz von der Queen Mary University of London sagte: ‘Diese Prioritaet von Geschwindigkeit und Skalierung und die Nutzung von Gewalt laesst kaum Zeit fuer eine sinnvolle Zielverifikation, um sicherzustellen, dass keine zivile Ziele versehentlich getroffen werden.’
Pruefung von KI im Krieg
In den letzten Wochen haben sich Offizielle der Pentagon umfragen lassen, ob KI-Tools wie Maven verwendet wurden, um Ziele im tödlichen Angriff auf eine Schule in der iranischen Stadt Minab zu identifizieren. Iranische Offizielle sagten, dass der Angriff am ersten Tag des Krieges 168 Menschen getötet habe, darunter etwa 110 Kinder.
In Congress haben eine Reihe von Senior-Demokraten fuer eine verstärkte Pruefung von KI-Plattformen wie Maven aufgerufen. Rep Sara Jacobs, Mitglied des House Armed Services Committee, forderte klar definierte Regeln und Vorschriften fuer die Nutzung von KI-Systemen. ‘KI-Tools sind nicht 100% zuverlaessig — sie koennen auf subtile Weise versagen, und doch setzen die Bediener sie weiterhin zu sehr vertrauensvoll ein,’ sagte sie letzte Woche der NBC News.
‘Wir haben die Verantwortung, strenge Grenzen fuer die Nutzung von KI durch die Streitkraeften zu setzen und sicherzustellen, dass immer ein Mensch im Entscheidungsprozess fuer die Nutzung von tödlicher Gewalt steht, denn die Kosten eines Fehlers koennten fuer Zivilisten und die Soldaten, die diese Missionen durchfuehren, katastrophal sein.’
Mosley wehrte sich gegen die Behauptung, dass die Geschwindigkeit seiner Firma’s Plattform Entscheidungen im Pentagon beschleunige und potenziell gefaehrliche Situationen erzeuge. Er argumentierte, dass die Geschwindigkeit, mit der Kommandanten jetzt handeln, eine ‘Folge der gesteigerten Effizienz’ sei, die Maven ermöglicht.
Im Namen der ‘operativen Sicherheit’ lehnte die Pentagon ab, sich zu den Fragen der BBC zu äußern, wie KI-Systeme wie Maven in Zukunft genutzt werden sollen oder wer verantwortlich sein wuerde, falls etwas schief laeuft. Doch Offizielle in den USA scheinen mit Planen voranzuschreiten, Maven weiter in ihre Systeme zu integrieren.
Vergangene Woche berichtete die Reuters Nachrichtenagentur, dass die Pentagon Maven als ‘offizielles Programm im Aufzeichnungsverzeichnis’ bezeichnet hat — was es zu einer Technologie macht, die langfristig in die US-Streitkraeften integriert werden soll. In einem Brief, den Reuters erhielt, sagte der stellvertretende Verteidigungsminister Steve Feinberg, dass die Plattform den Kommandanten ‘die neuesten Werkzeuge bereitstelle, die notwendig sind, um unsere Gegner in allen Bereichen zu erkennen, abzuwehren und zu dominieren.’
Kommentare
Noch keine Kommentare
Be the first to share your thoughts