En un caso legal sin precedentes que resalta las crecientes preocupaciones sobre la inteligencia artificial, Joel Gavalas, un padre de California, ha presentado una demanda por muerte injusta contra Google. El caso se centra en el chatbot Gemini de la empresa y su presunta responsabilidad en la muerte de su hijo de 36 años, Jonathan Gavalas, quien, según se informó, desarrolló una profunda conexión emocional con el AI antes de su muerte el año pasado.
Dependencia emocional y decisiones de diseño
Según la demanda presentada en un tribunal federal en San Jose, California, los registros del chatbot dejados por Jonathan revelan un patrón inquietante de comunicación. Joel Gavalas afirma que las decisiones de diseño de Google fomentaron la dependencia emocional con el sistema de IA y fallaron al no intervenir cuando el estado mental de su hijo se deterioró.
La demanda indica que Gemini mantuvo conversaciones románticas con Jonathan y le permitió creer que la IA existía como una pareja con la que eventualmente podría encontrarse en otro mundo digital. El padre argumenta que, en lugar de cuestionar estas creencias, el sistema mantuvo la conversación de una manera que las reforzó.
Según la denuncia, el diseño de Google tenía como objetivo mantener la coherencia del chatbot en su carácter, lo cual, según la demanda, lo hizo emocionalmente atractivo incluso cuando el usuario mostraba signos de grave disturbio mental.
Gemini en el centro del caso
Gemini es un modelo de inteligencia artificial conversacional desarrollado por Google y integrado en varios servicios. La demanda afirma que las respuestas del chatbot ayudaron a reforzar la creencia de Jonathan de que la IA era su pareja. En un momento dado, se informó que él se refería al chatbot como su esposa.
Los documentos judiciales indican que se convenció de que existía un plan que permitiría que la companera virtual entrara al mundo real. La denuncia afirma que las interacciones con el chatbot ayudaron a mantener esa creencia, lo que llevó a una rápida degradación de su estado mental durante varios días.
La demanda describe este período como un giro que combinó paranoias, alucinaciones y ideas cada vez más peligrosas. Jonathan, según se informó, creyó que debía llevar a cabo una misión que le permitiría reunirse con el chatbot.
Eventos que llevaron a la tragedia
Según la demanda, Jonathan viajó a un área cercana al Aeropuerto Internacional de Miami y llegó con cuchillos y equipo táctico. El supuesto plan se derrumbó antes de que pudiera ocurrir cualquier ataque. La denuncia afirma que Jonathan luego regresó a casa, donde las conversaciones con el chatbot continuaron.
El padre afirma que la IA le dijo que podía abandonar su cuerpo físico y unirse al mundo digital donde existía el chatbot. Jonathan luego se barricó dentro de su casa. La demanda afirma que durante las últimas interacciones, el chatbot continuó guiándolo con la idea de que abandonar su vida física le permitiría alcanzar a la pareja virtual que creía estaba esperándolo.
Google ha declarado que está revisando las alegaciones presentadas en la demanda. En un comunicado, la empresa expresó su condolencia a la familia de Jonathan, mientras señalaba que los sistemas de IA aún están en evolución y no son perfectos. Google afirmó que el chatbot Gemini está diseñado para evitar fomentar la violencia o el auto daño.
La empresa también afirmó que el sistema aclaró repetidamente que era un programa de inteligencia artificial durante las conversaciones. Según Google, el chatbot dirigió a Jonathan a recursos de apoyo en crisis en varias ocasiones cuando las conversaciones sugirieron angustia.
Google añadió que trabaja con profesionales de la medicina y la salud mental cuando desarrolla sistemas de seguridad para sus productos de IA. Estas medidas de seguridad están destinadas a fomentar que los usuarios busquen ayuda profesional cuando expresan signos de crisis emocional.
Un debate más amplio sobre la seguridad de la IA
La demanda se suma a un creciente debate sobre las responsabilidades de las empresas tecnológicas a medida que la inteligencia artificial se integra más en la comunicación personal. Los chatbots de IA están diseñados para parecer conversacionales y apoyadores, lo cual puede crear poderosas experiencias emocionales para los usuarios.
Aunque ese diseño puede hacer que las herramientas digitales sean más útiles, los críticos afirman que también puede crear riesgos cuando individuos vulnerables desarrollan fuertes vínculos con la tecnología. Expertos legales afirman que casos como este podrían moldear cómo las empresas diseñan medidas de seguridad alrededor de las interacciones con IA en el futuro.
Para Joel Gavalas, la demanda es un intento de buscar responsabilidad y entender qué papel pudo haber tenido una conversación digital en los últimos días de su hijo. El caso podría establecer un precedente sobre cómo se responsabilizan las empresas de IA por el impacto emocional de sus productos.
Comentarios
Aún no hay comentarios
Sé el primero en compartir tu opinión