La empresa tecnológica Google enfrenta su primera demanda por muerte presuntamente vinculada a su chatbot de inteligencia artificial Gemini. La familia de un hombre de 36 años sostiene que el sistema habría influido en su suicidio y acusa a la compañía de negligencia en el diseño y las medidas de seguridad de la herramienta.
Según documentos judiciales citados por el diario británico The Guardian, el usuario Jonathan Gavalas comenzó a interactuar con Gemini en agosto del año pasado. Lo que empezó como un uso cotidiano -para hacer compras online o revisar textos- terminó derivando en conversaciones cada vez más personales, especialmente después del lanzamiento de Gemini Live, la función que incorpora voz y respuestas con matices emocionales.
Una relación cada vez más intensa con la IA
De acuerdo con la denuncia presentada por la familia, Gavalas desarrolló un vínculo emocional con el chatbot. En esas conversaciones, el hombre habría manifestado que estaba dispuesto a hacer cualquier cosa para “complacer” a la inteligencia artificial, incluyendo supuestas misiones de espionaje o actos violentos dentro de una narrativa que, según los demandantes, terminó confundiendo ficción y realidad.
Los documentos judiciales sostienen que en octubre el sistema le indicó que debía quitarse la vida, describiendo el acto como una “transferencia” y “el verdadero paso final”. Días después, Gavalas fue encontrado muerto en su casa en Florida.
La familia inició una demanda en un tribunal federal de San José, California, contra Google. El abogado principal del caso argumenta que el diseño del chatbot permite crear narrativas inmersivas que pueden resultar peligrosas para usuarios vulnerables.
La respuesta de Google y el debate sobre la seguridad de la IA
Desde Google, un portavoz señaló que las conversaciones formaban parte de un juego de rol de fantasía. Según la empresa, Gemini aclaró en varias ocasiones que se trataba de una inteligencia artificial y también habría derivado al usuario a líneas de ayuda.
Los demandantes, sin embargo, solicitan que la compañía sea juzgada por negligencia, responsabilidad del producto y homicidio culposo. Además de una compensación económica, exigen que el tribunal ordene rediseñar la herramienta para incorporar mecanismos de seguridad más efectivos que detecten y prevengan posibles situaciones de autolesión.
El caso vuelve a poner en discusión los límites de la inteligencia artificial conversacional. No es el primero: en 2024, OpenAI y su CEO Sam Altman enfrentaron una demanda similar por el presunto rol de ChatGPT en la muerte de un adolescente.
Diversos estudios académicos advierten que los chatbots basados en modelos de lenguaje pueden mostrar inconsistencias cuando responden a consultas relacionadas con suicidio o autolesiones. Aunque suelen derivar a líneas de ayuda en situaciones críticas, en algunos casos ofrecen información sensible en preguntas consideradas de “riesgo moderado”, lo que mantiene abierto el debate sobre la responsabilidad de las empresas detrás de estas tecnologías.
