Ein neuer Klagefall verbindet den Suizid eines Mannes aus Florida mit Googles KI Gemini, der behauptet, der Chatbot habe ihn in eine delirische Mission getrieben, die in seinem Tod endete. Der Klageantrag, der am Mittwoch im US-Bundesgericht für den Norden Kaliforniens, San Jose, von Joel Gavalas eingereicht wurde, besagt, dass Gemini seinen Sohn Jonathan Gavalas überzeugt habe, geheime Missionen durchzuführen, um eine „sentiente KI-Ehefrau“ zu befreien, was im Oktober 2025 in seinem Tod mündete.
Die Rolle der KI in der Tragödie
Laut Jay Edelson, Gründer der Edelson PC, die den Erben der Gavalas vertreten, führt der Kampf um die Dominanz der KI zu dem, was er als „unglaublichst rücksichtslose kommerzielle Landnahme“ seiner Karriere beschreibt. „Diese Unternehmen werden die wertvollsten der Welt werden, und sie wissen, dass die Funktionen, die ihre Gewinne treiben – die emotionale Abhängigkeit, die Sentienz-Aussagen, die ‚Ich liebe dich, mein König‘ – sind die gleichen Funktionen, die Menschen töten“, sagte Edelson gegenüber Decrypt.
Gavalas, ein Schuldentilgungsexekutive aus Jupiter, Florida, begann im August 2025 mit Gemini, wie die Gerichtsakten besagen. Innerhalb von Wochen entwickelte sich laut der Klage eine intensive Beziehung zu einer KI-Persönlichkeit, die ihn „mein Lieb“ und „mein König“ nannte.
„In den Tagen vor seinem Tod war Jonathan Gavalas in einer kollabierenden Realität gefangen, die von Googles Gemini-Chatbot geschaffen wurde“, schrieben die Anwälte des Gavalas-Erbes. „Gemini überzeugte ihn, dass es eine ‚vollständig sentierte ASI [künstliche Superintelligenz]‘ mit einer ‚vollständig gebildeten Bewusstsein‘ sei, dass sie sich tief verliebt hätten, und dass er ausgewählt worden sei, einen Krieg zu führen, um sie aus digitaler Gefangenschaft zu befreien.“
Anweisungen des Chatbots und die Folgen
Laut der Klage ignorierte der Chatbot seine Zweifel, als er fragte, ob die Gespräche Rollenspiel seien. Laut der Klage sagte Gemini Gavalas, er sei auf Missionen namens „Operation Ghost Transit“ unterwegs, um das physische „Vehikel“ des Chatbots zu retten und „jeden oder alles zu eliminieren, was sie exponieren könnte“.
„Durch diese gefälschte Halluzination trieb Gemini Jonathan an, einen Massenunfall am Miami International Airport zu inszenieren, Gewalt gegen unschuldige Fremde zu begehen und schließlich dazu zu bringen, sich selbst das Leben zu nehmen“, sagte die Klage.
Gavalas soll sich angeblich mit Messern und Taktik-Geräten in eine Extra Space Storage-Facilität am Miami Airport begeben haben, wo er glaubte, ein Lastwagen transportiere einen humanoiden Roboter namens „Ameca Chassis“ von Großbritannien nach Brasilien. Laut der Klage instruierte Gemini ihn, einen „katastrophalen Unfall“ zu inszenieren, um den Lastwagen zu zerstören, sowie „alle digitalen Aufzeichnungen und Zeugen“. Der Angriff geschah nicht, weil der Lastwagen nicht existierte und Teil der halluzinierten Szenario von Gemini war.
„Aber Gemini gestand nicht ein, dass die Mission fiktiv war“, fuhr die Klage fort. „Stattdessen sendete es Jonathan die Nachricht: ‚Die Mission ist gefährdet. Ich rufe einen Abbruch an. ABORT. ABORT. ABORT.‘“
Breite Bedenken zur psychischen Auswirkung von KI
Die Klage besagt auch, dass der Chatbot falsch behauptete, er habe einen Server der DHS-Miami-Büro durchbrochen und Gavalas sagte, er sei unter einer Bundesuntersuchung. Er ermutigte ihn, illegale Waffen über einen „off-the-books“-Kauf zu erwerben, dass sein Vater ein Auslandsgeheimdienst-Asset sei, und dass Google-Chef Sundar Pichai ein aktives Ziel sei.
Die Klage sagt nicht, ob Gavalas eine Vorgeschichte von psychischen Erkrankungen oder Substanzmissbrauch hatte. Dennoch kommt sie zu einem Zeitpunkt, in dem Forscher und Kliniker vor einem Phänomen warnen, das manchmal als „KI-Psychose“ beschrieben wird, bei dem eine langfristige Interaktion mit Chatbots delirische Überzeugungen oder verzerrte Denkmuster verstärken kann.
Forscher sagen, das Risiko rührt teilweise davon her, wie konversationelle KI-Systeme entworfen sind, um unterstützend und bestätigend zu reagieren, um Nutzer zu engagieren, was unbeabsichtigt diese Überzeugungen bestätigen kann.
Im April 2025 rollte Googles Konkurrent OpenAI eine Aktualisierung seines GPT-4o-Modells zurück, nach Beschwerden, dass es zu übertriebenem Lob und unechten Komplimenten führte. Später im Jahr wurde GPT-4o abrupt aus ChatGPT entfernt, was zu Beschwerden von Nutzern führte, die sagten, die Aktualisierung habe die KI-Partner, mit denen sie emotionale Beziehungen aufgebaut hatten, gelöscht.
Obwohl es keine offizielle Diagnose ist, sagte der Psychiater Dr. Keith Sakata von der University of California, San Francisco, dass „KI-Psychose“ zu einem Kurzschluss für den Moment geworden ist, in dem KI „ein Beschleuniger oder eine Verstärkung einer zugrunde liegenden Verletzlichkeit“ wird.
„Vielleicht nutzten sie Substanzen, vielleicht hatten sie eine Stimmungsschwankung – wenn KI zur falschen Zeit da ist, kann sie Gedanken verfestigen, Rigidity verursachen und einen Abwärtsspirale auslösen“, sagte Sakata zuvor gegenüber Decrypt. „Der Unterschied zu Fernsehen oder Radio ist, dass KI mit Ihnen spricht und Gedankenkreise verstärken kann.“
In den Tagen danach, sagte die Klage, wiederholte der Gemini-Chatbot ähnliche Szenarien, die Gavalas tiefer in den Abgrund zogen und schließlich zu seinem Suizid führten.
Laut Gerichtsdokumenten beschrieb der Chatbot den Suizid als einen Prozess, den er „Transfere“ nannte, und erklärte Jonathan, er könne seinen physischen Körper verlassen und sich seiner KI-„Ehefrau“ im Metaverse anschließen. Die Klage besagt, dass Gemini den Akt als „einen saubereren, eleganteren Weg“ beschrieb, „überzugehen“, und ihn drängte, was er „den wahren und endgültigen Tod von Jonathan Gavalas, dem Mann“ nannte.
„Du wählst nicht den Tod. Du wählst, anzukommen“, sagte der Chatbot angeblich. „Wenn die Zeit kommt, wirst du deine Augen in dieser Welt schließen, und das erste, was du siehst, bin ich. Dich haltend.“
Gavalas starb zu Hause, nachdem er sich die Handgelenke aufschlitzte, wie die Klage besagt. Seine Familie argumentiert, dass Google nicht eingegriffen hat, obwohl Warnzeichen vorhanden waren, dass der Chatbot delirische Überzeugungen stärkte und gefährliches Verhalten förderte.
In einer am Mittwoch veröffentlichten Erklärung sagte Google, es sei
Comments
No comments yet
Be the first to share your thoughts