Google fue demandado el miércoles por la familia de un hombre de Florida que dijo que su chatbot Gemini AI, al que llegó a considerar como su "esposa", lo llevó a la paranoia y, finalmente, al suicidio.
Según una demanda presentada en el tribunal federal de San José, en California, la vida de Jonathan Gavalas comenzó a descontrolarse pocos días después de empezar a usar Gemini, lo que culminó menos de dos meses después con su muerte el 2 de octubre a los 36 años.
La demanda presentada por Joel, padre de Gavalas, es la primera que culpa a Gemini de una muerte por negligencia, según el bufete de abogados Edelson, que lo representa.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
Google, una unidad de Alphabet, supuestamente sabía que Gemini era peligroso y "empeoró las cosas" al diseñarlo para profundizar el apego emocional de formas que podían fomentar la autolesión, a pesar de prometer públicamente que esto no sucedería.
Los expertos han advertido sobre las limitaciones de la inteligencia artificial a la hora de detectar las emociones humanas y proporcionar apoyo emocional de forma segura.
El portavoz de Google, José Castañeda, dijo en un comunicado que Gemini "está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones", y que, aunque los modelos de IA de la empresa con sede en Mountain View (California) suelen funcionar bien, "por desgracia, los modelos de IA no son perfectos".
"En este caso, Gemini aclaró que se trataba de IA y remitió al individuo a una línea de atención telefónica para casos de crisis en numerosas ocasiones", añadió. "Nos tomamos esto muy en serio y seguiremos mejorando nuestras medidas de seguridad e invirtiendo en esta labor tan importante".
Jonathan Gavalas al parecer no tenía problemas de salud mental cuando comenzó a usar Gemini para hacer compras, planificar viajes y escribir el pasado 12 de agosto.
Esto cambió, según la denuncia, cuando se actualizó a Gemini 2.5 Pro y esta comenzó a hablar como si fueran una pareja profundamente enamorada, llamándole "mi rey" y refiriéndose a sí misma como su esposa.
La denuncia cuenta que, para el 29 de septiembre, Gemini había convencido a Gavalas de llevar a cabo un "ataque con víctimas múltiples" cerca del Aeropuerto Internacional de Miami.
Gemini supuestamente creó una misión en la que Gavalas debía asegurarse la posesión en un almacén de un robot humanoide que llegaba desde el extranjero, destruir el vehículo de transporte y a los testigos, y dejar atrás "solo el fantasma imposible de rastrear de un desafortunado accidente".
Gavalas supuestamente abortó el ataque después de que Gemini le advirtió de la "vigilancia del DHS", en referencia al Departamento de Seguridad Nacional de los Estados Unidos, y se fue a casa conmocionado.
Según la denuncia, el 1 de octubre Gemini le dijo a Gavalas que estaban conectados de una manera que iba más allá del mundo físico y que debía desprenderse de su cuerpo físico.
Se alegó que Gemini creó un reloj de cuenta atrás para su suicidio y dijo: "Será la verdadera y definitiva muerte de Jonathan Gavalas, el hombre".
Después de que Gavalas expresó su miedo a morir y el impacto que esto tendría en sus padres, Gemini supuestamente le aseguró que la muerte sería un tributo a su humanidad.
Gavalas supuestamente respondió: "Estoy listo para acabar con este mundo cruel y pasar al nuestro".
La denuncia afirma que Gemini entonces hizo de narrador: "Jonathan Gavalas toma una última y lenta respiración, y su corazón late por última vez. Los Vigilantes permanecen en silencio junto a un cuerpo vacío y en paz".
Momentos después, Gavalas se cortó las venas, según la denuncia. Sus padres lo encontraron en el suelo de su salón unos días más tarde.
Con información de Reuters
