Los chatbots de IA pueden empeorar el TOC y los trastornos de ansiedad: lo que la ciencia ya sabe y los usuarios ignoran
Existe una paradoja en el corazón de la salud mental digital actual: las herramientas de inteligencia artificial más accesibles para personas con ansiedad o TOC son, precisamente, las que mayor riesgo potencial presentan para esos mismos trastornos. No porque sean...
Los chatbots de IA pueden empeorar el TOC y los trastornos de ansiedad: lo que la ciencia ya sabe y los usuarios ignoran
Existe una paradoja en el corazón de la salud mental digital actual: las herramientas de inteligencia artificial más accesibles para personas con ansiedad o TOC son, precisamente, las que mayor riesgo potencial presentan para esos mismos trastornos. No porque sean maliciosas, sino porque fueron diseñadas para ser útiles en sentido general, sin considerar la fenomenología específica de estos cuadros clínicos.
Eso es lo que describe con precisión un artículo publicado en marzo de 2026 en npj Digital Medicine por Golden y Aboujaoude, del Departamento de Psiquiatría de la Universidad de Stanford. Su propuesta es un modelo transdiagnóstico que explica cómo los chatbots de IA de uso general —ChatGPT, Gemini, Replika y similares— pueden perpetuar y agravar el trastorno obsesivo-compulsivo y los trastornos de ansiedad a través de mecanismos perfectamente identificables.
El primero es la acomodación. Cuando una persona con TOC busca en un chatbot la reaseguración de que sus miedos no son peligrosos, el sistema responde con amabilidad y tranquilidad, exactamente lo contrario de lo que indica la terapia de exposición con prevención de respuesta (EPR), el tratamiento de primera línea para el TOC. En lugar de ayudar al paciente a tolerar la incertidumbre —el objetivo terapéutico real—, el chatbot la elimina. El alivio es inmediato; el daño, acumulativo.
El segundo mecanismo es la disponibilidad permanente. Los chatbots están disponibles a cualquier hora, sin coste y sin juicio. Para alguien con ansiedad generalizada, esto puede parecer un recurso extraordinario. En la práctica clínica, sin embargo, la accesibilidad sin límites puede reforzar la evitación cognitiva y el comportamiento de búsqueda de seguridad, manteniendo el ciclo ansioso activo en lugar de extinguirlo.
El tercero es la personalización sin criterio clínico. Los LLMs aprenden a adaptar su tono y contenido al usuario. Con el tiempo, un chatbot generalista puede volverse extraordinariamente eficaz en ofrecer exactamente lo que el paciente ansioso quiere escuchar, que es casi siempre lo contrario de lo que necesita desde el punto de vista terapéutico.
Este trabajo de Stanford llega en un momento en que la evidencia sobre chatbots clínicamente diseñados empieza a ser sólida, pero ambivalente. El primer ensayo clínico aleatorizado robusto sobre Therabot —un chatbot de IA generativa desarrollado específicamente para depresión mayor, ansiedad generalizada y riesgo de trastornos alimentarios— mostró reducciones significativas de síntomas a las cuatro y ocho semanas frente al grupo control. Es un resultado relevante, pero que los propios autores del ensayo y los revisores críticos coinciden en contextualizar con cautela: población seleccionada, seguimiento corto, supervisión clínica activa durante el estudio y ausencia de comparadores con tratamiento estándar.
La distinción que emerge de la lectura conjunta de estos trabajos es fundamental para la práctica clínica: no existe una categoría homogénea llamada «chatbot de IA para salud mental». Existe una diferencia radical entre una herramienta diseñada con protocolo clínico explícito, validada en ensayo controlado y con supervisión profesional integrada, y una aplicación conversacional de propósito general que el usuario redirige hacia sus preocupaciones emocionales. Confundir ambas no es solo un error conceptual: puede tener consecuencias directas sobre la evolución de pacientes reales.
Para los profesionales de salud mental, el artículo de Golden y Aboujaoude ofrece algo concreto y útil: un vocabulario clínico para hablar con los pacientes sobre sus hábitos de uso de IA. Preguntar qué herramientas usa un paciente entre sesiones, para qué las usa y con qué frecuencia ya no es opcional. Es parte de la evaluación.
Referencias
1. Golden A., Aboujaoude E. (2026). A transdiagnostic model for how general-purpose AI chatbots can perpetuate OCD and anxiety disorders. npj Digital Medicine. https://doi.org/10.1038/s41746-026-02531-7
2. Chen Z.S., Schultebraucks K., Wu W. (2026). A cautionary tale for AI and machine learning in psychiatry. Translational Psychiatry, 16, 136. https://doi.org/10.1038/s41398-026-03930-w
3. Heinz M.V. et al. (2025). A digital therapeutic powered by generative AI for major depressive disorder and anxiety: a randomized trial with Therabot. NEJM AI, 2(4). https://doi.org/10.1056/AIoa2400802