Mitarbeiter von Google DeepMind, dem KI-Forschungslabor des Unternehmens, haben sich in Großbritannien für eine Gewerkschaft entschieden. Ein Grund sei unter anderem ein kürzlich geschlossener Vertrag mit dem US-Verteidigungsministerium. In einem an The Guardian weitergegebenen Brief bat das Personal um Anerkennung der Communication Workers Union und Unite the Union als Repräsentanten.

Sorgen um militärische Anwendungen der KI

Einer der Mitarbeiter, der anonym bleiben wollte, nannte Berichte über den bevorstehenden Vertrag als Schlüsselgrund für die Gewerkschaftsgründung. Er verwies auf Handlungen der US-Armee in Iran und den Konflikt der Trump-Regierung mit Anthropic als Hinweis darauf, dass das Verteidigungsministerium möglicherweise kein verantwortungsvoller Partner sei. Der Vertrag wurde am Freitag offiziell bekanntgegeben.

„Ich habe die Gewerkschaft beigetreten, weil ich Sorgen um die Nutzung von KI habe, um Autokratismen zu stärken, sei es durch militärische oder Überwachungsanwendungen, sowohl im Ausland als auch im Inland“, sagte der Mitarbeiter. „Durch die Gewerkschaftsgründung gehen wir den traditionellen Weg, um Einfluss zu nehmen.“

Beteiligung am Krieg in Gaza

Ein weiterer DeepMind-Mitarbeiter, ebenfalls anonym, sagte, viele Kollegen seien besorgt über ihre Beteiligung am Krieg in Gaza. Laut einem Bericht der Washington Post im Jahr 2023 hat das Unternehmen der israelischen Armee Zugang zu KI-Tools gewähren. Im Jahr 2021 unterzeichnete Google einen 1,2-Milliarden-Dollar-Cloud-Computing-Vertrag mit der israelischen Regierung, gemeinsam mit Amazon.

„Unsere Technologie half der IDF“, sagte der Mitarbeiter, wobei er sich auf die israelische Armee bezieht. „Ich möchte, dass KI der Menschheit zugutekommt, nicht, dass sie einen Völkermord begünstigt.“

Google antwortete nicht auf eine Anfrage nach Kommentaren.

Sorgen unter Google-Mitarbeitern und Investoren bestehen bereits seit Jahren, wurden aber verstärkt, nachdem das Unternehmen im vergangenen Jahr einen Eid aufgab, keine militarisierte KI zu entwickeln. Zwei der beteiligten Mitarbeiter sagten, diese Entscheidung sei ein entscheidender Faktor für die Gewerkschaftsgründung.

Obwohl einige Google-Mitarbeiter in den USA bereits in Gewerkschaften organisiert sind, sind die DeepMind-Mitarbeiter in Großbritannien die ersten in einem „Frontier“-KI-Labor, die eine Gewerkschaftsakzeptanz anstreben. Google DeepMind hat seinen Sitz in London, aber Niederlassungen in Nordamerika und Europa. Wenn das Unternehmen die Gewerkschaft anerkennt, würden mindestens 1.000 Mitarbeiter vertreten, sagten Gewerkschaftsvertreter.

Branchentrends und Druck der Investoren

Das Verteidigungsministerium bestätigte am Freitag, dass es Vereinbarungen mit sieben führenden KI-Unternehmen geschlossen hat, darunter Google, SpaceX, OpenAI, Nvidia, Microsoft, Amazon Web Services und Reflection. Anthropic, dessen Technologie von der US-Armee weit verbreitet genutzt wird, fehlte auffallend in der Liste.

„Diese Vereinbarungen beschleunigen die Transformation, um die US-Armee als KI-first-Kampfkraft zu etablieren und werden die Fähigkeit der Truppen stärken, Entscheidungsvorteile in allen Kriegsbereichen zu erlangen“, sagte ein Sprecher des Verteidigungsministeriums in einer Erklärung.

Die Trump-Regierung hat KI-Unternehmen aufgefordert, ihre Tools auf Klassifizierungsnetzwerke ohne übliche Einschränkungen zugänglich zu machen. Laut Berichten enthält Googles Vertrag eine Klausel, die besagt, dass das KI-System nicht für Überwachung im Inland oder für autonome Waffen ohne menschliche Aufsicht gedacht ist. Allerdings ist die Klausel nicht bindend, und der Vertrag besagt auch, dass Google kein Recht hat, „gesetzliche“ Entscheidungen der Regierung zu kontrollieren oder zu verbieten.

Mitarbeiter, die sich für die Gewerkschaft entschieden haben, sagten, sie wollten Druck auf Google ausüben, um Forderungen zu erfüllen, die bereits von anderen Mitarbeitern gestellt wurden. Dazu gehören ein Verpflichtung, keine Technologie zu entwickeln, „deren primäres Ziel es ist, Menschen Schaden oder Verletzungen zuzufügen“, die Einrichtung einer unabhängigen ethischen Aufsicht und das Recht der Mitarbeiter, Projekte auf moralischen Gründen abzulehnen. Falls Google dem nicht nachkommt, erwägen die Mitarbeiter Demonstrationen und „Forschungsstreiks“, bei denen das Personal aufwändige Projekte wie Googles KI-Bot Gemini nicht bearbeiten würde, aber kleinere Updates fortführen.

Mehr als 600 Google-Mitarbeiter unterzeichneten letzte Woche einen offenen Brief an den CEO Sundar Pichai, in dem sie forderten, dass das Unternehmen seine KI-Systeme nicht für vertrauliche Zwecke zur Verfügung stelle. „Wir möchten, dass KI der Menschheit zugutekommt; nicht, dass sie in unmenschlichen oder extrem schädlichen Weisen eingesetzt wird“, hieß es im Brief. „Eine falsche Entscheidung in diesem Moment würde unübersehbaren Schaden für Googles Ruf, Geschäftsmodell und Rolle in der Welt verursachen.“

Technik-Mitarbeiter haben zunehmend ihre Unternehmen wegen der Nutzung von KI in militärischen Kontexten herausgefordert. Im Jahr 2024 kündigte Google 50 Mitarbeiter, die gegen Projekt Nimbus protestiert hatten, einen Vertrag im Jahr 2021 mit der israelischen Regierung. Microsoft, das bekannt wurde, dass es Israel mit Cloud-Speicher für die Massenüberwachung von Palästinensern versorgt hat, stand unter Mitarbeiterprotesten und beendete schließlich den Zugang der Armee zu dieser Technologie.

Auch Investoren haben Bedenken geäußert. Eine Gruppe von Aktionären mit etwa 2,2 Milliarden Dollar an Alphabet-Aktien schrieb einen Brief an Googles Muttergesellschaft, in dem sie mehr Transparenz bei der Verwendung von KI in „hochriskanten“ Kontexten forderte. Der Brief verwies auf Bedenken hinsichtlich der Arbeit des Unternehmens mit US-Immigrationsbehörden und Projekt Nimbus sowie auf Fragen zu der Wirksamkeit interner Richtlinien und der Aufsicht durch den Vorstand in konfliktbehafteten oder sicherheitsrelevanten Umgebungen.

Google hat in der Vergangenheit ähnliche Mitarbeiterproteste erlebt. Im Jahr 2018 protestierten Mitarbeiter breit gegen einen militärischen Vertrag namens Projekt Maven, bei dem das Unternehmen einverstanden war, KI-Tools für die Analyse von Drohnenvideos für das Verteidigungsministerium zu entwickeln. Aufgrund des Rückhalts entschied sich Google 2019 nicht, den Vertrag zu verlängern, und veröffentlichte eine Reihe von KI-Prinzipien, die einen Eid enthielten, keine Waffen-KI zu entwickeln. Palantir übernahm später das Projekt, das bis heute andauert.