La inteligencia artificial lleva más de una década prometiendo transformar la psiquiatría. Los titulares hablan de algoritmos que detectan la depresión antes que el clínico, de modelos que predicen recaídas psicóticas con semanas de antelación, de sistemas que personalizan el antidepresivo ideal para cada paciente. La producción cient&...
La inteligencia artificial lleva más de una década prometiendo transformar la psiquiatría. Los titulares hablan de algoritmos que detectan la depresión antes que el clínico, de modelos que predicen recaídas psicóticas con semanas de antelación, de sistemas que personalizan el antidepresivo ideal para cada paciente. La producción científica de las últimas semanas, sin embargo, ofrece una imagen más sobria —y más útil— de dónde estamos realmente.
Tres publicaciones recientes convergen en un diagnóstico compartido: la IA en salud mental rinde bien en validación interna, pero colapsa con frecuencia cuando se prueba en poblaciones distintas a las que se usaron para entrenarla. El problema no es menor. Es estructural.
El patrón que se repite
Una scoping review de reviews publicada en Frontiers in Psychiatry a principios de marzo, que sintetizó 31 revisiones sistemáticas previas, documenta con claridad este patrón. Los modelos de cribado, diagnóstico y predicción de riesgo reportan métricas altas —precisiones del 85–90% en algunos casos— cuando se evalúan sobre los mismos datos con los que se construyeron. Pero esa precisión se desinfla de forma consistente en validación externa. El sobreajuste no es un accidente puntual: es el modo de funcionamiento habitual del campo.
La misma revisión identifica otro punto ciego relevante: la evidencia se concentra de manera desproporcionada en depresión y ansiedad. La esquizofrenia, el trastorno bipolar, la salud mental perinatal, los adultos mayores y los profesionales de enfermería y trabajo social aparecen de forma marginal en la literatura. El mapa de la IA en psiquiatría está incompleto —y sesgado hacia lo más sencillo de modelar.
Un campo que genera más modelos que aprendizaje
La revisión narrativa publicada en Molecular Psychiatry amplía el diagnóstico con perspectiva histórica. Su argumento central es que la psiquiatría es una disciplina radicalmente distinta a otras especialidades médicas en lo que respecta al encaje de la IA: está centrada en el lenguaje, en los informes subjetivos y en la variabilidad individual. Los modelos entrenados en una cohorte clínica fallan sistemáticamente al trasladarse a otra, incluso cuando los ensayos clínicos de origen son de alta calidad. El análisis de los estudios sobre antipsicóticos en esquizofrenia es especialmente ilustrativo: los modelos que funcionan bien en un ensayo con frecuencia no añaden valor predictivo cuando se agregan datos de múltiples estudios.
La conclusión no es pesimista, sino metodológica: el campo necesita pasar de diseños estáticos y lineales a investigación prospectiva que incorpore la naturaleza dinámica y contextual de la salud mental.
Hacia un marco de IA asistida por humanos
La perspectiva publicada en Translational Psychiatry por Chen, Schultebraucks y Wu es la que ofrece la propuesta más articulada para salir del estancamiento. Su argumento es que los fracasos de la IA clínica en psiquiatría no son solo técnicos, sino de diseño: los modelos se construyen como sistemas de decisión autónoma cuando deberían construirse como herramientas de colaboración incremental.
El marco que proponen —denominado human-assisted AI o HAAI— plantea un ciclo de retroalimentación continua entre el modelo y el clínico, en el que las predicciones del sistema se refinan con las correcciones del profesional a lo largo del tiempo. No es IA que sustituye al psiquiatra, sino IA que aprende de él. A esto añaden tres condiciones que consideran imprescindibles para la viabilidad clínica real: formación específica de los profesionales de salud mental en el uso e interpretación de estas herramientas; adaptación cultural de los modelos a los contextos en los que van a desplegarse; y apertura de datos y código para que la ciencia sea reproducible y auditable.
Lo que falta para cerrar la brecha
Los tres artículos coinciden en señalar las mismas condiciones pendientes. La validación externa independiente no puede ser opcional: tiene que ser un requisito de publicación. Los estudios de utilidad clínica, que midan si el modelo mejora las decisiones reales del clínico y no solo sus métricas de discriminación, son escasos y urgentes. Y los marcos regulatorios —en Europa, el Reglamento de IA de la UE y el artículo 9 del RGPD para datos de categoría especial— definen el perímetro dentro del cual cualquier herramienta tendrá que operar antes de llegar a la consulta.
El mensaje de fondo que emerge de esta semana no es que la IA no funciona en psiquiatría. Es que el campo ha optimizado la producción de modelos y ha infrainvertido en la producción de evidencia sobre su utilidad real. La corrección está en marcha, pero requiere más rigor y más colaboración humano-máquina.
Referencias
1. Chen ZS, Schultebraucks K, Wu W. A cautionary tale for AI and machine learning in psychiatry. Translational Psychiatry. 2026;16:136.
https://doi.org/10.1038/s41398-026-03930-w
2. Abu-Mahfouz MS, AlFehaid S, Burqan HM, El Arab RA. Artificial intelligence in mental health care: a scoping review of reviews. Frontiers in Psychiatry. 2026;17:1688043.
https://doi.org/10.3389/fpsyt.2026.1688043
3. Sun J et al. Practical AI application in psychiatry: historical review and future directions. Molecular Psychiatry. 2025–2026.
https://doi.org/10.1038/s41380-025-03072-3