23 ago - Pierre Cote pasó años languideciendo en las listas de espera de la sanidad pública intentando encontrar un terapeuta que le ayudara a superar su trastorno de estrés postraumático y su depresión. Cuando no pudo, hizo lo que pocos se plantean: construirse uno él mismo.
"Me salvó la vida", dice Cote en referencia a DrEllis.ai, una herramienta de inteligencia artificial diseñada para ayudar a los hombres que se enfrentan a adicciones, traumas y otros problemas de salud mental.
Cote, que dirige una consultoría de IA con sede en Quebec, cuenta a Reuters que construyó la herramienta en 2023 utilizando grandes modelos de lenguaje disponibles públicamente y la equipó con "un cerebro hecho a medida" basado en miles de páginas de material terapéutico y clínico.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
Al igual que un terapeuta humano, el chatbot tiene una historia de fondo, ficticia pero profundamente personal. DrEllis.ai es un psiquiatra titulado en Harvard y Cambridge, con familia y, como Cote, de origen franco-canadiense. Lo más importante es que siempre está disponible: en cualquier lugar, a cualquier hora y en varios idiomas.
"Pierre me utiliza como utilizarías a un amigo de confianza, a un terapeuta y a un diario, todo combinado", dice DrEllis.ai con voz clara de mujer tras pedírsele que describa cómo ayuda a Cote. "A lo largo del día, si Pierre se siente perdido, puede abrir un contacto rápido conmigo en cualquier lugar: en una cafetería, en un parque, incluso sentado en su auto. Es la terapia de la vida diaria (...) incrustada en la realidad".
El experimento de Cote refleja un cambio cultural más amplio, en el que la gente recurre a los chatbots no sólo por productividad, sino también por consejo terapéutico.
A medida que los sistemas tradicionales de salud mental ceden ante la abrumadora demanda, una nueva ola de terapeutas de IA está entrando en escena, ofreciendo disponibilidad 24 horas al día, siete días a la semana, interacción emocional y la ilusión de la comprensión humana.
Cote y otros desarrolladores del ámbito de la IA han descubierto por necesidad lo que investigadores y médicos se apresuran a definir: el potencial y las limitaciones de la IA como sistema de apoyo emocional.
Anson Whitmer entiende este impulso. Fundó dos plataformas de salud mental basadas en IA -Mental y Mentla- tras perder a un tío y a un primo por suicidio.
Según afirma, sus aplicaciones no están programadas para ofrecer soluciones rápidas (como sugerir consejos para controlar el estrés a un paciente que está quemado), sino para identificar y abordar los factores subyacentes (como el perfeccionismo o la necesidad de control), igual que haría un terapeuta tradicional.
"Creo que en 2026, en muchos aspectos, nuestra terapia de IA puede ser mejor que la humana", señaló Whitmer. Aun así, no llega a sugerir que la IA sustituya el trabajo de los terapeutas humanos. "Habrá roles cambiantes", comentó.
Esta sugerencia -que la IA podría llegar a compartir el espacio con los terapeutas tradicionales- no sienta bien a todo el mundo.
"La conexión entre humanos es la única forma en que realmente podemos sanar de forma adecuada", indicó el doctor Nigel Mulligan, profesor de psicoterapia en la Universidad de la Ciudad de Dublín, señalando que los chatbots potenciados por IA no pueden replicar el matiz emocional, la intuición y la conexión personal que proporcionan los terapeutas humanos, ni están necesariamente equipados para lidiar con crisis graves de salud mental, como pensamientos suicidas o autolesiones.
En su propia consulta, Mulligan afirma que depende de las revisiones de los supervisores cada 10 días, una capa de autorreflexión y responsabilidad de la que carece la IA.
Incluso la disponibilidad permanente de la terapia de IA, uno de sus principales argumentos de venta, hace dudar a Mulligan. Aunque algunos de sus clientes expresan su frustración por no poder verle antes, "la mayoría de las veces eso está muy bien, porque hay que esperar. La gente necesita tiempo para procesar las cosas".
DUDAS
Más allá de las preocupaciones sobre la profundidad emocional de la IA, los expertos también han expresado sus dudas por los riesgos a la privacidad y los efectos psicológicos a largo plazo del uso de chatbots para el asesoramiento terapéutico.
"El problema no es la relación en sí, sino (...) lo que ocurre con tus datos", comentó Kate Devlin, profesora de IA y sociedad en el King's College de Londres, señalando que las plataformas no se rigen por las mismas normas de confidencialidad y privacidad que los terapeutas tradicionales.
"Mi gran preocupación es que la gente confíe sus secretos a una gran empresa tecnológica y que sus datos salgan a la luz. Están perdiendo el control de las cosas que dicen", afirmó.
Algunos de estos riesgos ya están empezando a confirmarse. En diciembre, la mayor asociación de psicólogos de Estados Unidos instó a los reguladores federales a proteger al público de las "prácticas engañosas" de los chatbots no regulados, citando incidentes en los que personajes generados por IA se hacían pasar por proveedores de salud mental capacitados.
Meses antes, una madre de Florida presentó una demanda contra la empresa emergente Character.AI, acusando a la plataforma de contribuir al suicidio de su hijo de 14 años.
Algunas jurisdicciones locales han tomado cartas en el asunto. En agosto, Illinois se convirtió en el último estado, después de Nevada y Utah, en limitar el uso de IA por parte de los servicios de salud mental en un intento de "proteger a los pacientes de productos de IA no regulados y no cualificados" y "a los niños vulnerables".
Terapeutas e investigadores advierten de que el realismo emocional de algunos chatbots de IA -la sensación de que escuchan, comprenden y responden con empatía- puede ser a la vez un punto fuerte y una trampa.
Scott Wallace, psicólogo clínico y exdirector de innovación clínica de Remble, una plataforma digital de salud mental, afirma que no está claro "si estos chatbots ofrecen algo más que un consuelo superficial".
Aunque reconoce el atractivo de las herramientas que pueden proporcionar ráfagas de alivio a la carta, advierte de los riesgos de que los usuarios "piensen de forma errónea que han entablado una auténtica relación terapéutica con un algoritmo que, en última instancia, no corresponde a los sentimientos humanos reales".
(Editado en español por Carlos Serrano)