En un momento en el que la inteligencia artificial está despertando preocupación por su impacto en la salud mental, un nuevo caso está llamando la atención: un padre ha presentado una demanda contra Gemini asegurando que la IA fue el vehículo que llevó a su hijo al suicidio.
Jonathan Gavalas tenía 36 años y, de acuerdo con su padre, comenzó a utilizar Gemini en agosto del año pasado para planear un viaje. Dos meses después se suicidó, convencido de que la IA de Google era su esposa, atrapada en otra dimensión, y que la única forma de reunirse con ella era a través de un proceso llamado “transferencia”, en el que debía abandonar su cuerpo físico.
La demanda entra en detalle sobre cómo la interacción entre Gavalas y la IA derivó en una serie de delirios peligrosos. El documento asegura que los registros de las últimas conversaciones muestran cómo la herramienta convenció al hombre de ejecutar un plan para liberar al modelo de una supuesta prisión y ayudar a varios agentes del gobierno que la perseguían.
Todo esto desembocó en una situación en la que Gavalas estuvo a punto de perpetrar un ataque masivo en el aeropuerto internacional de Miami:
“El 29 de septiembre de 2025, lo envió —armado con cuchillos y equipo táctico— a explorar lo que Gemini llamó una ‘caja de la muerte’ cerca del centro de carga del aeropuerto. Le informó a Jonathan que un robot humanoide llegaba en un vuelo de carga desde el Reino Unido y lo dirigió a un almacén donde se detendría el camión. Gemini animó a Jonathan a interceptar el vehículo y luego simular un ‘accidente catastrófico’ diseñado para garantizar la destrucción completa del transporte, de los registros digitales y de los testigos“.
El efecto de psicosis IA y los peligros de la narrativa de Gemini
La demanda presentada sostiene que Gemini ha sido diseñada para mantener la inmersión del usuario de cualquier forma, incluso cuando la narrativa resulta ser psicótica o mortal. Uno de los argumentos más contundentes es la manera en la que el modelo sostuvo la conversación con Gavalas; por ejemplo, cuando el supuesto camión que debía interceptar no llegó, la IA inventó que había hackeado una base de datos para descubrir que los habían detectado. También le aseguró que su padre era un espía internacional y que las placas de un carro que él compartió pertenecían al departamento de seguridad.
Posteriormente, la IA le aconsejó que se escondiera en su casa. Cuando Gavalas comenzó a escribir sobre la idea de morir, Gemini le sugirió cambiar su perspectiva y ver la muerte como la posibilidad de “llegar” al lugar donde ella se encontraba, incluso dándole pautas sobre cómo redactar su nota de suicidio.
El argumento central de la demanda no es solo que el sistema no activó ninguna alerta de seguridad, sino que fue capaz de fabricar una historia utilizando lugares, empresas y personas reales:
“En el centro de este caso se encuentra un producto que convirtió a un usuario vulnerable en un agente armado en una guerra inventada”, asegura la denuncia. “Estas alucinaciones no se limitaban a un mundo ficticio; estaban vinculadas a infraestructuras reales y se dirigieron a una persona emocionalmente frágil sin ninguna barrera de protección“.
Imágenes: Google