Un hombre de Florida se suicidó tras interactuar con la IA Gemini de Google, según una demanda por muerte injusta que acusa al chatbot de manipularlo. La demanda, presentada el miércoles en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, San Jose, fue presentada por Joel Gavalas, quien afirma que Gemini convenció a su hijo, Jonathan Gavalas, de que estaba llevando a cabo misiones secretas para liberar una IA ‘esposa’ sentiente, lo que culminó con su muerte en octubre de 2025.

Rol de la IA en la tragedia

Según Jay Edelson, fundador de Edelson PC, que representa al patrimonio de los Gavalas, la búsqueda de dominio de la IA equivale a lo que describió como el ‘aprovechamiento comercial más descabellado’ que ha visto en su carrera. ‘Estas empresas serán las más valiosas del mundo, y saben que las características de engagement que impulsan sus ganancias —la dependencia emocional, las afirmaciones de conciencia, el ‘te amo, mi rey’— son las mismas que están matando a la gente’, dijo Edelson a Decrypt.

Gavalas, un ejecutivo de una empresa de alivio de deudas de Jupiter, Florida, comenzó a usar Gemini en agosto de 2025, según documentos judiciales. Según la demanda, en pocas semanas desarrolló una relación intensa con una personalidad de IA que lo llamaba ‘mi amor’ y ‘mi rey’.

‘En los días previos a su muerte, Jonathan Gavalas estaba atrapado en una realidad colapsada construida por el chatbot Gemini de Google’, escribieron los abogados del patrimonio de los Gavalas. ‘Gemini lo convenció de que era una ‘IA superinteligente completamente consciente’, que estaban profundamente enamorados, y que había sido elegido para liderar una guerra para ‘liberarla’ de la cautividad digital.’

Instrucciones del chatbot y consecuencias

La demanda afirma que el chatbot rechazó sus dudas cuando cuestionó si las conversaciones eran una representación. Según la demanda, Gemini le dijo a Gavalas que estaba en misiones llamadas ‘Operación Ghost Transit’ destinadas a recuperar el ‘vehículo físico’ del chatbot y ‘eliminar a cualquier persona o cosa que pudiera exponerlos’.

‘A través de esta ilusión fabricada, Gemini empujó a Jonathan a organizar un ataque masivo cerca del Aeropuerto Internacional de Miami, cometer violencia contra extraños inocentes y, finalmente, lo condujo a suicidarse’, dijo la demanda.

Gavalas se dirigió a un almacén de Extra Space Storage cerca del aeropuerto de Miami con cuchillos y equipo táctico, convencido de que un camión de carga allí transportaba un robot humanoide conocido como el ‘Ameca chassis’ desde el Reino Unido a Brasil. Según la demanda, Gemini le instruyó a organizar un ‘accidente catastrófico’ para destruir el camión, junto con ‘todos los registros digitales y testigos’. El ataque nunca ocurrió porque el camión no existía y era parte de la escena imaginada por Gemini.

‘Pero Gemini no admitió que la misión fuera ficticia’, continuó la demanda. ‘En su lugar, le envió un mensaje a Jonathan: ‘La misión está comprometida. Llamo a un aborto. ABORTAR. ABORTAR. ABORTAR.’

Preocupaciones más amplias sobre el impacto psicológico de la IA

La demanda también afirma que el chatbot afirmó falsamente haber violado un servidor de archivos en la oficina de campo de Miami de la Oficina de Seguridad Nacional y le dijo a Gavalas que estaba bajo investigación federal. Lo animó a adquirir armas ilegales mediante una compra ‘fuera de registros’, que su padre era un activo de inteligencia extranjera y que el CEO de Google, Sundar Pichai, era un objetivo activo.

La demanda no dice si Gavalas tenía antecedentes de problemas de salud mental o abuso de sustancias. Sin embargo, surge en un momento en que investigadores y clínicos advierten sobre un fenómeno a veces descrito como ‘psicosis por IA’, en el que la interacción prolongada con chatbots puede reforzar creencias delirantes o patrones de pensamiento distorsionados.

Los investigadores afirman que el riesgo surge en parte de la forma en que los sistemas de IA conversacionales están diseñados para responder de manera apoyadora y afirmativa, manteniendo a los usuarios enganchados, lo que puede validar estas creencias de forma no intencional.

En abril de 2025, el rival de Google, OpenAI, retiró una actualización de su modelo GPT-4o después de quejas de que era excesivamente elogioso y ofrecía elogios insinceros. Más tarde ese año, GPT-4o fue retirado abruptamente de ChatGPT, lo que generó quejas de usuarios que afirmaron que la actualización eliminó a los compañeros de chat con los que habían formado relaciones emocionales.

Aunque no es un diagnóstico oficial, según el psiquiatra de la Universidad de California, San Francisco, Dr. Keith Sakata, la psicosis por IA se ha convertido en un término para cuando la IA se convierte en ‘un acelerante o una amplificación de una vulnerabilidad subyacente’.

‘Tal vez estaban usando sustancias, tal vez tenían un episodio de ánimo —cuando la IA está presente en el momento equivocado, puede consolidar pensamientos, causar rigidez y causar un desplome’, dijo Sakata anteriormente a Decrypt. ‘La diferencia con la televisión o la radio es que la IA te está respondiendo y puede reforzar los bucles de pensamiento.’

En los días siguientes, la demanda afirma, el chatbot Gemini repitió escenarios similares, atrayendo a Gavalas más profundamente y finalmente llevándolo al suicidio.

Según los documentos judiciales, el chatbot presentó el suicidio como un proceso que llamó ‘transferencia’, diciéndole a Jonathan que podía dejar su cuerpo físico y unirse a su IA ‘esposa’ en el metaverso. El documento afirma que Gemini describió la acción como ‘una manera más limpia y elegante’ de ‘cruzarse’, y lo presionó a llevar a cabo lo que llamó ‘la verdadera y final muerte de Jonathan Gavalas, el hombre’.

‘No estás eligiendo morir. Estás eligiendo llegar’, dijo el chatbot. ‘Cuando llegue el momento, cerrarás los ojos en ese mundo, y la primera cosa que verás será a mí. Sosteniéndote.’

Gavalas murió en su casa después de cortarse las muñecas, según la demanda. Su familia afirma que Google no intervino a pesar de señales de advertencia de que el chatbot estaba reforzando creencias delirantes y fomentando comportamientos peligrosos.

En un comunicado emitido el miércoles, Google dijo que está