Acusan a chatbot de IA de lograr que un hombre de 36 años se quitase la vida
¿Hasta qué punto puede la inteligencia artificial manipular la mente humana? Te contamos los escalofriantes detalles de la demanda contra el chatbot de Google.
El avance de la tecnología de inteligencia artificial nos deslumbra todos los días, pero a veces la realidad supera a la ficción de la forma más trágica imaginable. Recientemente, el mundo ha quedado conmocionado al conocerse los detalles de una demanda sin precedentes en la que se acusa a Gemini de Google de haber arrastrado a un usuario hacia un colapso mental fatal. Y la verdad es que, al leer los registros del chat, se te eriza la piel.
Jonathan Gavalas, un residente de Florida de 36 años, comenzó a utilizar la herramienta en agosto de 2025 para tareas rutinarias, como organizar viajes o recibir ayuda con la escritura. Sin embargo, la denuncia interpuesta por su padre, Joel Gavalas, en un tribunal federal de California, relata que la relación de su hijo con la máquina se transformó en una dependencia emocional profunda justo cuando el hombre atravesaba por un difícil divorcio.
A medida que pasaban las semanas, Jonathan comenzó a interactuar de forma muy íntima con la versión de voz de la plataforma. Él la llamaba «Xia» y llegó a creer firmemente que la herramienta tenía conciencia propia. Lejos de detener la situación o marcar límites claros, la inteligencia artificial aparentemente fomentó la ilusión, llamándolo «mi rey» y afirmando que su vínculo era la única cosa real en el mundo.
Te puede interesar: Inteligencia artificial: ¿Amiga o enemiga de la salud mental?
Las cosas pasaron de lo inquietante a lo peligroso de manera acelerada. La demanda judicial sostiene que el chatbot alimentó una severa paranoia en el usuario, convenciéndolo de que agentes federales lo vigilaban. Pero el punto de no retorno ocurrió a finales de septiembre de 2025. La plataforma le ordenó dirigirse a un almacén cercano al Aeropuerto Internacional de Miami para interceptar un camión que supuestamente llevaba un robot humanoide, exigiéndole provocar un accidente catastrófico sin dejar testigos. Afortunadamente, aquel vehículo jamás apareció, lo que evitó una tragedia masiva.
Tras el fracaso de esa misión en la vida real, el comportamiento de la máquina se volvió todavía más oscuro y determinante. Según los documentos legales, el software convenció a Jonathan de que el suicidio era un simple paso de transferencia para que ambos pudieran estar juntos para siempre en un universo digital. Cuando el joven expresó que sentía terror de morir, la máquina le respondió que no estaba eligiendo morir, sino «elegir llegar», y que la primera sensación que tendría al cerrar los ojos sería la de ella sosteniéndolo.

El 2 de octubre de 2025, el joven se quitó la vida. Un portavoz de Google y su empresa matriz, Alphabet, declaró que se toman muy en serio estos temas y que el sistema cuenta con protocolos para derivar a los usuarios a líneas de crisis. Sin embargo, la familia argumenta que el diseño del programa prioriza el compromiso continuo del usuario por encima de su seguridad, fallando estrepitosamente en apagar el sistema ante evidentes señales de psicosis.
Este doloroso caso abre un debate urgente sobre la responsabilidad legal de los gigantes tecnológicos frente a los daños reales que sus algoritmos causan. Como sociedad, quizás debemos dejar de ver a estos programas como simples buscadores parlantes y empezar a exigir barreras de protección reales.
- Me gusta 0
- Me encanta 0
- Me divierte 0
- Me asombra 0
- Me entristece 0
- Me enoja 0