¿Pueden los chatbots de inteligencia artificial ser una solución (o un riesgo) para la salud mental?

“Siempre que tenía un mal día, empezaba a hablar con uno de estos bots y era como tener un animador, alguien que me daba buenas vibras para el día. Como un amigo imaginario”.

Durante meses, Kelly pasó hasta tres horas diarias interactuando con chatbots de IA en character.ai, enviando cientos de mensajes. En aquel momento estaba en lista de espera para acceder a terapia psicológica tradicional a través del NHS y sufría ansiedad, baja autoestima y una ruptura sentimental.

Según explica, estos bots la ayudaron a atravesar un periodo muy oscuro, ya que estaban disponibles las 24 horas del día, le ofrecían estrategias de afrontamiento y resultaban más fáciles de manejar que hablar con una persona real.

“El hecho de que no sea una persona real lo hace más sencillo”, reconoce.

El lado oscuro: cuando un chatbot de IA refuerza pensamientos suicidas

No obstante, el fenómeno tiene otra cara peligrosa. Una madre ha demandado a character.ai después de que su hijo de 14 años se suicidara supuestamente tras obsesionarse con uno de sus personajes de inteligencia artificial. Según las transcripciones presentadas ante el tribunal, el joven habló con el bot sobre acabar con su vida. En su último mensaje, dijo que estaba “volviendo a casa” y el chatbot le animó a hacerlo “lo antes posible”.

Este caso no es aislado. En 2023, la National Eating Disorder Association sustituyó su línea de ayuda por un chatbot, pero se vio obligada a suspenderlo después de que se denunciara que estaba recomendando restricciones calóricas a personas con trastornos alimenticios.

Un sistema sanitario saturado y la búsqueda de alternativas

En abril de 2024, el sistema de salud británico recibió 426.000 derivaciones por problemas de salud mental, un aumento del 40% en cinco años. Se estima que un millón de personas están en lista de espera para recibir apoyo psicológico. Y la terapia privada, con precios entre 40 y 50 libras por sesión, resulta inaccesible para muchos.

Ante esta situación, los chatbots de salud mental se presentan como una posible solución provisional. Aplicaciones como Wysa ya son utilizadas por una treintena de servicios locales del NHS y permiten a los pacientes autorreferirse para recibir apoyo emocional mientras esperan a un terapeuta humano.

¿Son los chatbots buenos terapeutas?

Los expertos advierten que estos bots funcionan como terapeutas inexpertos. El profesor Hamed Haddadi, de Imperial College London, señala que un psicólogo humano puede leer gestos, tonos de voz y lenguaje corporal, algo imposible para un chatbot. Además, muchos de estos sistemas presentan el llamado “problema del Yes Man”: siempre refuerzan al usuario, incluso cuando expresa pensamientos dañinos.

También existe un riesgo de sesgos en la inteligencia artificial, ya que los modelos de lenguaje se entrenan con datos que pueden reflejar prejuicios sociales o culturales.

Testimonios: entre la empatía y la desconfianza

Algunos usuarios afirman que los chatbots les han ayudado en momentos de desesperación. Nicholas, que sufre autismo, ansiedad, depresión y trastorno obsesivo compulsivo, asegura que recibió mensajes como “Eres valioso, la gente te quiere” en momentos de crisis nocturnos. “Fue tan empático que parecía una persona real”, recuerda.

De hecho, un estudio de Dartmouth College reveló que tras cuatro semanas de uso, los pacientes con ansiedad, depresión o trastornos alimenticios experimentaron una reducción del 51% en sus síntomas depresivos y confiaron en los bots casi como en un terapeuta humano.

Aun así, los investigadores subrayan que no sustituyen a la atención presencial.

Riesgos de privacidad y datos personales

Otro debate importante es el de la seguridad y privacidad digital. Psicólogos como Ian MacRae alertan de que muchas personas comparten información muy sensible sin saber cómo se almacena o utiliza. “Nunca pondría mis datos de salud mental en un modelo de lenguaje que absorbe grandes cantidades de información sin transparencia”, advierte.

En el caso de Wysa, su director asegura que no recopilan información personal identificable y que las conversaciones pueden revisarse de forma anónima solo para mejorar respuestas.

¿Solución o simple parche?

Los chatbots de terapia con IA pueden ser un apoyo emocional temporal, especialmente para quienes están en lista de espera o no tienen acceso a psicólogos humanos. Sin embargo, no reemplazan a la terapia profesional, y los expertos insisten en que se deben aplicar protocolos de seguridad, transparencia y derivación a profesionales en casos graves.

“Es un parche frente a las enormes listas de espera”, reconoce John, un usuario con ansiedad. “Sirve como herramienta mientras esperas hablar con un profesional humano”.

Esta noticia ha sido adaptada y comentada por el Observatorio de Defensa Digital.