Existe una paradoja creciente en la psiquiatría contemporánea. Por un lado, la producción científica sobre inteligencia artificial aplicada al diagnóstico, pronóstico y tratamiento de los trastornos mentales crece a un ritmo sin precedentes —el análisis bibliométrico publicado esta semana en PubMed identifica 2.795 publicaciones relevan...
Existe una paradoja creciente en la psiquiatría contemporánea. Por un lado, la producción científica sobre inteligencia artificial aplicada al diagnóstico, pronóstico y tratamiento de los trastornos mentales crece a un ritmo sin precedentes —el análisis bibliométrico publicado esta semana en PubMed identifica 2.795 publicaciones relevantes sólo en los últimos años. Por otro lado, la adopción clínica real sigue siendo marginal. Una parte de esa brecha es técnica y regulatoria. Pero otra parte, menos discutida y quizás más determinante, es psicológica: los clínicos no confían en las recomendaciones generadas por IA, incluso cuando son equivalentes o superiores a las humanas.
El estudio publicado esta semana en Translational Psychiatry —con el revelador título “Prefiero al psiquiatra”— lo documenta con precisión experimental. En un diseño con 83 psiquiatras, se presentaron recomendaciones clínicas idénticas para el manejo del trastorno depresivo mayor, atribuidas en unos casos a otro psiquiatra y en otros a un sistema de IA. El resultado fue consistente: los participantes preferían y confiaban más en las recomendaciones cuando creían que provenían de un colega humano, independientemente del contenido real de la recomendación. La fuente percibida, no la calidad de la información, determinó la respuesta.
Este fenómeno —conocido en la literatura como “algorithm aversion”— no es exclusivo de la medicina, pero tiene consecuencias especialmente relevantes en psiquiatría. A diferencia de otras especialidades donde los biomarcadores y las pruebas objetivas tienen un peso decisivo, la psiquiatría opera en gran medida sobre el juicio clínico, la interpretación de narrativas y la relación terapéutica. En ese contexto, la introducción de sistemas de apoyo a la decisión basados en IA no es solo una cuestión de rendimiento técnico: es una cuestión de epistemología clínica. ¿Qué tipo de conocimiento considera legítimo el psiquiatra? ¿Y cómo se negocia la autoridad entre el criterio humano y la recomendación algorítmica?
La revisión sobre IA en psiquiatría publicada en Science este mismo mes sitúa este problema en un marco más amplio: la implementación real de la IA en salud mental no depende únicamente de que los modelos funcionen, sino de que los sistemas de salud, los profesionales y los pacientes desarrollen marcos de confianza calibrada —ni rechazo acrítico ni aceptación ciega. La formación médica, señala el artículo de Frontiers in Public Health, tiene aquí un papel estructural que todavía no ha asumido con suficiente seriedad.