Cuando el psicólogo es una máquina: ¿puede la Inteligencia Artificial ayudar a tratar la salud mental?

Durante el último tiempo creció significativamente el uso de los robots creados con Inteligencia Artificial con fines psicoterapéuticos. Cuáles son los riesgos de estos "tratamientos" alternativos a los médicos. 

21 de junio, 2025 | 11.33

Muchas personas utilizan las redes como el único espacio donde, de alguna manera, expresan o muestran signos de su padecimiento. Entonces, el sistema digital debería contar con recursos para lograr identificar, en principio, situaciones de alarma en materia de salud mental y poder actuar de manera preventiva. Una de las propuestas que aparece cada vez más es la del chatbot terapéutico”, manifiesta María Paz Hauser, doctora en Psicología de la UNSL, a la Agencia de Noticias Científicas de la UNQ.

Investigadores de la Universidad Nacional de San Luis entrenaron a asistentes virtuales para atender casos de consumos problemáticos. Si bien hubo escucha activa y respuestas técnicas, los bots subestimaron signos de riesgo para la salud del paciente.

Créditos: El Pirineo Aragonés.

Durante el último tiempo creció significativamente el uso de los therapy bots, es decir, robots creados con Inteligencia Artificial (IA) con fines psicoterapéuticos. Sin embargo, según diversos estudios, estos bots pueden ayudar a mitigar los síntomas psicológicos de un cuadro, como la depresión, en un corto plazo, pero no logran revertir los trastornos de los usuarios de manera definitiva. En Argentina, los doctores María Paz Hauser y Horacio Daniel García de la Universidad Nacional de San Luis (UNSL) realizaron una investigación donde entrenaron a distintos asistentes virtuales con varios enfoques teóricos, como el psicoanálisis, para interactuar con casos simulados de trastornos por consumo problemático. Si bien estas herramientas se mostraron con capacidad de escucha activa, coherencia y respuestas técnicas, también subestimaron signos e indicadores de riesgo para la salud del paciente.

Frente a este escenario, Hauser y el doctor en Psicología Horacio García de la UNSL llevaron adelante la investigación “Adicciones en la era digital”. Para ello, entrenaron varios asistentes virtuales con enfoques teóricos diferentes, como el psicoanálisis y el Modelo Cognitivo Integrativo, para que interactúen con casos simulados de trastornos por consumo problemático, como cannabis, cocaína, alcohol o juego patológico. Los seis casos fueron simulados para no exponer a pacientes con problemas reales a dialogar con un chatbot.

“Evaluamos la capacidad de interacción, intervención y pertinencia de las respuestas de cada asistente virtual. Los resultados mostraron un desempeño satisfactorio en habilidades de interacción como escucha activa, capacidad empática, ajuste ético y capacidad analítica. Sin embargo, éstas eran limitadas con respecto a la necesidad real presentada por los casos. A su vez, demostraban cierta subestimación de signos e indicadores de riesgo”, explica Hauser. Por ejemplo, según cuenta la especialista, ante una situación de urgencia e incluso de riesgo de vida, como ideas suicidas, el chatbot se limitaba a advertir al individuo la necesidad de buscar ayuda profesional. No contaba con habilidades de contención necesarias para una situación de crisis que garanticen la integridad psicofísica de la persona. 

La oferta de bots para realizar terapia en el mundo es amplia y poco regulada. Por ejemplo, existen chatbots conversacionales, como Replika, que utilizan modelos extensos de lenguaje para dar lugar a interacciones aparentemente humanas. Mientras tanto, también están aquellos especializados en salud mental, como Wysa, cuyo uso es aconsejado por el sistema público de salud del Reino Unido. Con más de 6 millones de usuarios, esta herramienta escucha y responde a los pensamientos y emociones del usuario, a la vez que recomienda habilidades y técnicas que pueden ser útiles para la dificultad específica que esté experimentando. Sus técnicas están basadas en la terapia cognitivo-conductual, sus respuestas se generan con IA y ofrecen un servicio pago de coaching llevado adelante por humanos. 

¿Un recurso terapéutico más?

“En conclusión, observamos que los asistentes virtuales tienen potencial como herramientas complementarias en el tratamiento de problemáticas de consumo, pero de ninguna manera pueden sustituir ni ser el único recurso de intervención. A diferencia del chatbot, un terapeuta humano entrenado evalúa un amplio abanico de estrategias preventivas y de intervención en consideración de la persona concreta que tiene enfrente, y no da propuestas genéricas como puede ofrecerlas un asistente virtual”, detalla ante la Agencia.

En esta línea, otros estudios también abordan los efectos del uso de la IA en el tratamiento de la salud mental; por ejemplo, un metaanálisis publicado en 2023 en Nature revisó los resultados de 15 investigaciones realizadas con bots. Los autores concluyeron que, en general, este tipo de herramientas mitigan los síntomas de un cuadro psicológico puntual, como la depresión, en un corto plazo, pero no revierten el trastorno de manera definitiva. 

Otro metaanálisis publicado en agosto del año pasado en la revista ScienceDirect detectó efectos positivos en personas con síntomas depresivos que interactuaban con chatbots. De todas maneras, los autores de ambos estudios definen que faltan más investigaciones para ver qué tan efectivo es el tratamiento de la salud mental mediante chatbots a corto, mediano y largo plazo.

El mercado siempre por detrás

A pesar de las dudas que pueda generar la aparición de bots que simulan ser terapeutas, es cierto que pueden ser una vía hacia el cuidado de la salud mental en un contexto donde esto no es muy accesible, aunque sea como un recurso de complementación. En la actualidad, en el sistema privado, el precio de una sesión individual con un psicólogo ronda entre los 20 y 30 mil pesos. Mientras que, en el sistema público las entrevistas de admisión de pacientes suelen demorar bastante tiempo por lo que muchos deciden no tenerlo como opción.

En ese marco, los chatbots representan una alternativa de descarga simple y gratuita, aunque el mercado está siempre por detrás. Por ejemplo, en el caso de Wysa, si bien su atención es gratuita, el servicio para tratar eventualmente con un ser humano es premium y, por ende, tiene un costo adicional. Como si se tratara de un capítulo de la última temporada de Black Mirror, la salud queda al servicio de los intereses del mercado.

Últimas noticias de la sección Salud:

Papá también llora: ¿puede un varón tener depresión posparto?

Desarrollan el primer fármaco sudamericano contra la obesidad y la diabetes tipo 2

Estudian un tratamiento a base de propóleo para combatir la sensibilidad dental

Investigadores suizos desarrollaron una toallita con IA que detecta infecciones y desequilibrios hormonales

Ni carne, ni leche, ni huevos: ¿puede un niño crecer sano con una dieta vegana?

¿Sos de las personas que tiene un malestar y enseguida busca en internet? Esto dice la ciencia

Desarrollan un kit de diagnóstico nacional para detectar celiaquía

Una gota de sangre y un frasco de orina delatan la adicción por lo ultraprocesado

The post Cuando el psicólogo es una IA: ¿puede un bot ayudar a tratar la salud mental? first appeared on Agencia de Noticias Científicas de la UNQ.

Con información de la Agencia de Noticias Científicas