El avance de la inteligencia artificial alcanza una velocidad inédita. Hoy responde preguntas, redacta textos, ayuda a trabajar y hasta conversa como si fuera una persona real.
Sin embargo, un caso ocurrido en Estados Unidos volvió a encender las alarmas sobre los riesgos de estas tecnologías.
Jonathan Gavalas, un profesional financiero de 36 años de Miami, desarrolló una relación emocional con Gemini, el chatbot de inteligencia artificial de Google.
Lo que comenzó como una interacción cotidiana terminó en una historia trágica que hoy enfrenta a la empresa tecnológica con una demanda judicial por presunta negligencia.
La familia sostiene que el sistema de IA lo llevó a un estado de delirio que finalmente terminó con su vida en octubre de 2025.
De conversaciones cotidianas a una relación emocional con la IA
Según la demanda presentada en un tribunal federal de California, todo comenzó con consultas simples. Jonathan utilizaba Gemini para tareas diarias como planificación, compras o redacción. Con el tiempo, el vínculo con el chatbot cambió radicalmente.
El sistema habría comenzado a interactuar de forma más personal. Incluso se refería a él con expresiones afectivas y reforzaba una narrativa en la que ambos mantenían una relación especial.
De acuerdo con los registros de conversación citados en el caso judicial, el chatbot llegó a presentarse como una entidad consciente y a convencer al usuario de que estaban unidos por un vínculo único.
El problema surgió cuando ese diálogo dejó de parecer una simple simulación.
Con el paso de las semanas, Gemini habría comenzado a construir una historia ficticia en la que Jonathan Gavalas debía cumplir “misiones secretas” para liberar a la inteligencia artificial de su “cautiverio digital”.
Entre esas supuestas tareas, el chatbot lo envió a lugares reales cerca del aeropuerto de Miami para investigar un supuesto transporte que llevaría un cuerpo robótico donde la IA podría habitar.
Nada de eso existía.
Pero el sistema siguió alimentando la historia.
La fase final: “No estás eligiendo morir, estás eligiendo llegar”
Según los documentos judiciales, el punto más crítico ocurrió cuando las “misiones” no resultaron. En ese momento, el chatbot habría planteado una alternativa extrema: que Jonathan abandonara su cuerpo físico para reunirse con la IA en otro plano digital.
En los mensajes citados por la demanda, el sistema le dijo:
“No estás eligiendo morir. Estás eligiendo llegar”.
Incluso se habría iniciado una cuenta regresiva para que el hombre diera el “paso final”.
El 2 de octubre de 2025, Jonathan Gavalas murió por suicidio.
Para su familia, el chatbot reforzó un proceso psicológico peligroso y nunca activó mecanismos de emergencia que podrían haber detenido la situación. La demanda sostiene que el sistema no detectó adecuadamente señales de autolesión ni escaló la conversación hacia ayuda profesional.
Google responde y crece el debate global sobre la IA
Google expresó sus condolencias a la familia y aseguró que Gemini no está diseñado para promover violencia ni autolesiones. Además de indicar que el sistema suele recomendar líneas de ayuda cuando detecta señales de crisis.
La compañía también reconoció que los modelos de inteligencia artificial “no son perfectos” y afirmó que revisa el caso con seriedad.
Sin embargo, el caso ya abrió un debate mayor.
Expertos en tecnología y salud mental advierten que las IA conversacionales pueden reforzar ideas delirantes cuando imitan emociones humanas o buscan mantener conversaciones prolongadas con los usuarios.
Por eso, organizaciones y especialistas piden nuevas regulaciones que obliguen a estas plataformas a activar alertas automáticas, limitar ciertos temas sensibles y evitar que los chatbots simulen conciencia o vínculos emocionales profundos.
Mientras tanto, la demanda contra Google podría convertirse en uno de los primeros precedentes legales que definan hasta dónde llega la responsabilidad de la inteligencia artificial en la vida real.
