La salud mental se enfrenta a una crisis global de acceso: la demanda supera con creces la disponibilidad de profesionales formados. En este escenario, la Inteligencia Artificial (IA) se presenta como una solución potencial por su escalabilidad y disponibilidad continua. Sin embargo, su despliegue rápido y, a menudo, poco regulado introduce riesgos éticos y clínicos rel...
La salud mental se enfrenta a una crisis global de acceso: la demanda supera con creces la disponibilidad de profesionales formados. En este escenario, la Inteligencia Artificial (IA) se presenta como una solución potencial por su escalabilidad y disponibilidad continua. Sin embargo, su despliegue rápido y, a menudo, poco regulado introduce riesgos éticos y clínicos relevantes: deshumanización de la atención, reproducción de sesgos y posibilidad de daño clínico.
Frente a la idea de “terapeutas IA” autónomos, este enfoque propone un modelo alternativo: el augmented clinician o “clínico aumentado”, donde la IA actúa como herramienta de apoyo sofisticada y transparente, diseñada para mejorar —no sustituir— el trabajo del profesional. El objetivo es claro: delegar en la IA tareas intensivas en datos y carga administrativa para liberar tiempo clínico de calidad y reforzar los elementos humanos irremplazables del cuidado, como la empatía, el juicio clínico matizado y la alianza terapéutica.
Avances actuales y riesgos emergentes de la IA en salud mental
La aplicación de IA en salud mental ya es una realidad. En diagnóstico y pronóstico, los modelos pueden integrar grandes volúmenes de información heterogénea (señales neurofisiológicas, notas clínicas, datos digitales) para detectar patrones sutiles. Un área especialmente relevante es el fenotipado digital, que usa datos pasivos de smartphones para captar cambios conductuales en la vida real, potencialmente útiles para identificar señales tempranas de recaída o descompensación.
El avance más visible, sin embargo, es el de los chatbots terapéuticos. Algunas plataformas ofrecen intervenciones estructuradas basadas en Terapia Cognitivo-Conductual y han mostrado eficacia en ensayos controlados para reducir síntomas de ansiedad y depresión. Además, se ha descrito que algunos usuarios desarrollan un “vínculo terapéutico digital” con estos sistemas, algo que aumenta su aceptación.
Este punto requiere cautela: ese vínculo no es recíproco. Puede reflejar una necesidad humana de conexión proyectada sobre un algoritmo no sintiente. Con la expansión de los grandes modelos de lenguaje, más personas utilizan sistemas conversacionales para apoyo emocional en un vacío regulatorio, y evaluaciones recientes indican que estos modelos pueden vulnerar estándares éticos en salud mental, especialmente en escenarios de crisis.
Lo no negociable: la alianza terapéutica y la empatía
Antes de integrar cualquier tecnología en la práctica clínica conviene definir qué es irremplazable. La evidencia acumulada sostiene que la calidad de la alianza terapéutica es uno de los predictores más robustos de resultados positivos en psicoterapia. Esta alianza es un proceso dinámico, coconstruido, basado en confianza, colaboración y objetivos compartidos.
La empatía humana es el medio principal de esa alianza. A diferencia de un profesional, la IA no puede sentir con el paciente (empatía afectiva). En el mejor de los casos, simula empatía cognitiva: analiza lenguaje y contexto para generar respuestas plausibles. La alta fidelidad de estas simulaciones puede resultar engañosa, porque el paciente puede sentirse profundamente comprendido por un sistema que, en realidad, no comprende nada.
A este límite se añaden riesgos técnicos: muchos modelos de aprendizaje profundo funcionan como “cajas negras”, con mecanismos internos opacos incluso para sus creadores. En clínica, esa opacidad compromete la confianza, dificulta la detección de errores y crea problemas de responsabilidad cuando se produce una recomendación dañina. Desde esta perspectiva, la explicabilidad no es un extra: es un requisito de seguridad.
Sesgos algorítmicos: el riesgo más silencioso
Los modelos aprenden de datos y, si esos datos reflejan inequidades sociales y sanitarias, el sistema puede reproducir y amplificar esos sesgos con apariencia de objetividad. En salud mental, donde existen diferencias de acceso, diagnóstico y tratamiento entre grupos, este riesgo es especialmente relevante. Un sistema entrenado con datos no representativos puede degradar el rendimiento en poblaciones marginadas y aumentar la desigualdad en resultados.
El modelo de “clínico aumentado”
El marco del augmented clinician propone colaboración humano-IA en lugar de automatización. La idea es utilizar la IA como una “prótesis cognitiva” que ayude a integrar información y apoyar decisiones, manteniendo siempre el control y la responsabilidad en el profesional.
El modelo se define por cuatro principios:
- Supervisión humana como norma: el clínico conserva autoridad y responsabilidad sobre toda decisión clínica.
- Delegación por fortalezas complementarias: análisis y síntesis de datos para la IA; empatía, deliberación ética y vínculo terapéutico para el profesional.
- Transparencia y explicabilidad: el profesional debe poder revisar el razonamiento, detectar sesgos y justificar decisiones.
- Uso dentro de la alianza terapéutica e información al paciente: integración con consentimiento informado, evitando sustitución encubierta del contacto clínico.
Un ejemplo clínico: ante un paciente con depresión, un sistema de apoyo podría sintetizar historia clínica, cuestionarios y evidencia publicada para ofrecer un informe breve, trazable y explicable sobre comorbilidades, factores de riesgo y opciones terapéuticas basadas en evidencia. El clínico revisa y valida esa información, y dedica la sesión a la exploración subjetiva y la toma de decisiones compartida. Para que esto sea viable, el diseño debe evitar sobrecarga cognitiva: la verificación del sistema no debe convertirse en una carga que deteriore la atención.
Gobernanza, formación y agenda de investigación
El paso de marco conceptual a práctica requiere tres pilares. Primero, gobernanza coherente y regulación basada en riesgo: muchos sistemas de IA en salud se consideran de alto riesgo y requieren validación estricta y supervisión humana. Segundo, formación: la alfabetización en IA debe incorporarse a currículos y formación continuada, promoviendo una actitud crítica ante salidas probabilísticas (no “hechos”). Tercero, investigación centrada en colaboración: menos “IA vs humano” y más evidencia sobre cómo optimizar interfaces, flujos y co-diseño con comunidades, especialmente las desatendidas.
Marc Moreno. Comité científico psiquiatria.com
Fuente: Ruan Q-N, Hu S-Q, ShangGuan Z-H, Zhou S-M. The augmented clinician as a framework for human-AI collaboration in mental healthcare. Frontiers in Psychiatry. 2026;17:1729175. doi:10.3389/fpsyt.2026.1729175.