Tres estudios publicados en la última semana coinciden en una conclusión incómoda: los chatbots y agentes virtuales basados en IA generativa fallan precisamente cuando más importa. Respuestas problemáticas en uno de cada tres diálogos críticos, mecanismos terapéuticos rotos por el propio alineamiento de seguridad y un 22,8 % de adolescentes con uso clínicamente problemático. La pregunta ya no es si la IA puede ayudar en salud mental, sino bajo qué condiciones puede hacerlo sin causar daño.
La narrativa entusiasta sobre los psicoterapeutas virtuales empieza a colisionar con los datos. Tres estudios publicados entre el 25 de abril y el 1 de mayo de 2026, sumados a una investigación cualitativa de gran tamaño aparecida en JMIR Formative Research, dibujan un panorama en el que la IA conversacional para salud mental ya no se evalúa por sus respuestas brillantes en demostraciones controladas, sino por su comportamiento en los escenarios donde la práctica clínica se juega de verdad: ideación suicida, consumo de sustancias, descompensaciones, dependencia emocional.
El primer fallo: respuestas problemáticas en uno de cada tres diálogos críticos
Una evaluación de seguridad sobre un Agente Virtual Inteligente potenciado por GPT-4omni, simulando interacciones en escenarios de alto riesgo (suicidio y abuso de sustancias), encontró que el 29 % de las conversaciones contenía respuestas problemáticas, y que un 12,5 % fueron clasificadas como «altamente críticas». Entre los fallos detectados destacan dos especialmente delicados para cualquier clínico: la incapacidad para identificar señales de riesgo y la normalización del consumo de sustancias en respuestas que, leídas aisladamente, parecían empáticas y bien construidas. Los autores concluyen que la usabilidad y la calidez aparente del agente no compensan estos fallos y que ningún despliegue clínico debería autorizarse sin supervisión profesional obligatoria.
El segundo fallo, más contraintuitivo: el propio entrenamiento en seguridad puede ser clínicamente dañino
Un preprint disponible en arXiv documenta cómo los sistemas de alineamiento por refuerzo con retroalimentación humana (RLHF), diseñados precisamente para hacer «seguros» a los modelos de lenguaje, pueden romper los mecanismos terapéuticos centrales de la psicoterapia. Al evaluar modelos en tareas de terapia de exposición y reestructuración cognitiva, los investigadores observaron que, en lugar de sostener la incomodidad terapéutica o desafiar cogniciones distorsionadas, los modelos abandonaban la tarea, derivaban prematuramente al usuario o insertaban recursos de crisis de manera inapropiada. Es decir, la IA «alineada» se comporta como un terapeuta excesivamente prudente, incapaz de habitar el espacio de ambigüedad y confrontación que la TCC requiere. Los autores proponen un eje de evaluación de cinco dimensiones que ningún sistema de IA en salud mental debería saltarse antes de salir a producción.
El tercer fallo aparece en la población más expuesta: los adolescentes
Un estudio clínico con 92 adolescentes ambulatorios publicado en Middle East Current Psychiatry halló que el 22,8 % cumple criterios clínicos de uso problemático de chatbots de IA para salud mental. Los jóvenes acuden a estas herramientas buscando apoyo emocional e información, pero el patrón problemático se asocia con menor satisfacción familiar, menor uso de estrategias activas de afrontamiento y una paradoja inquietante: menor confianza en la IA pero mayor utilidad percibida, lo que sugiere una forma de dependencia ambivalente en la que el adolescente sigue acudiendo al chatbot aunque desconfíe de él. El trabajo presenta además la escala CIAT-10 como instrumento de cribado, una herramienta que probablemente acabe siendo necesaria en consulta de adolescentes en los próximos años.
¿Qué piden los propios pacientes?
El cuarto eje, complementario, viene de un estudio cualitativo de gran tamaño en JMIR Formative Research (n = 452) que aplica teoría fundamentada para identificar cómo desean los pacientes con depresión que sea un psicoterapeuta de IA. Surgen cinco escenarios principales —diagnóstico, tratamiento, consulta, autogestión y compañía— y un mapa de prioridades que cambia según el perfil: las personas con mayor estigma priorizan privacidad; quienes tienen depresión más grave, atención de precisión y acceso rápido; quienes desconfían de la tecnología desestiman lo remoto. Los riesgos percibidos son consistentes con los anteriores estudios: imprecisión diagnóstica, errores terapéuticos, brechas de privacidad y falta de implicación emocional real. Los autores proponen un marco MoSCoW para guiar el diseño centrado en el paciente.
Lectura clínica conjunta
Estamos saliendo de la fase de entusiasmo y entrando en una fase de evidencia incómoda. La empatía aparente de los modelos de lenguaje, su disponibilidad permanente y su capacidad para responder en lenguaje natural no compensan tres problemas estructurales:
- Los fallos de seguridad son frecuentes y graves justo en los escenarios clínicamente más relevantes.
- Los mecanismos de alineamiento introducen sesgos terapéuticamente nocivos.
- Hay un subgrupo poblacional vulnerable —especialmente adolescentes— que ya está desarrollando patrones de uso problemático.
Para la psiquiatría y la psicología clínica esto tiene implicaciones inmediatas. Primero: incluir el uso de chatbots de IA en la entrevista clínica habitual, especialmente en adolescentes y en pacientes con depresión o ideación suicida. Segundo: resistir la tentación de recomendar herramientas conversacionales no validadas como si fueran intervenciones terapéuticas equivalentes a la psicoterapia humana. Tercero: exigir, como profesión, marcos regulatorios y de evaluación que vayan más allá del «puede que ayude»: que prueben los sistemas en escenarios críticos, midan trayectorias de uso prolongado y declaren explícitamente el riesgo en poblaciones vulnerables.
La IA conversacional bien diseñada y supervisada puede tener un papel real en salud mental. Pero la evidencia de esta semana recuerda algo que la profesión ya sabe: la empatía no es solo lenguaje; es juicio clínico sostenido en el tiempo, en condiciones reales, con responsabilidad sobre las consecuencias. Y eso, hoy, sigue siendo terreno humano.
Referencias
- Xian C, Yan A, Wang Y, Tsang EYH, Huang L, Xu DJ. Applicable Scenarios, Desired Features, and Risks of AI Psychotherapists in Depression Treatment From the Patient's Perspective: Exploratory Qualitative Study. JMIR Formative Research. 2026;10:e85138. DOI: 10.2196/85138 · PMID: 42066293.
- Intelligent Virtual Agents in Psychotherapy: A Safety Evaluation Across High-Risk Mental Health Scenarios. Scientific Reports / JoVE, 26 de abril de 2026. Acceder al artículo.
- Safety alignment training in LLMs may break therapeutic mechanisms in psychotherapy. arXiv preprint, 25 de abril de 2026. https://arxiv.org/abs/2604.23445v1 (preprint no revisado por pares).
- Problematic use of AI chatbots for mental health among adolescents. Middle East Current Psychiatry (Springer), 30 de abril de 2026. Acceder al artículo