Hay dos errores frecuentes en cómo estamos integrando la inteligencia artificial en la práctica clínica. El primero es sobrerreaccionar a la novedad tecnológica del síntoma: cuando un paciente con psicosis nos dice que ChatGPT le da órdenes, tendemos a leerlo como un caso más grave o más peligroso por el simple hecho de que la IA esté ...
Hay dos errores frecuentes en cómo estamos integrando la inteligencia artificial en la práctica clínica. El primero es sobrerreaccionar a la novedad tecnológica del síntoma: cuando un paciente con psicosis nos dice que ChatGPT le da órdenes, tendemos a leerlo como un caso más grave o más peligroso por el simple hecho de que la IA esté involucrada.
El segundo es el contrario: confiar en algoritmos predictivos como si fueran herramientas universales, sin preguntarnos para qué población se entrenaron y para cuál no funcionan.
Esta semana llegan dos trabajos, uno desde la psiquiatría forense canadiense y otro desde un suburbio de Beirut, que corrigen ambos reflejos al mismo tiempo. Merece la pena leerlos en paralelo.
1. Cuando la IA aparece dentro del delirio: lo que importa no es el tema, es la centralidad
El grupo de Alexandre Hudon en el Institut Philippe-Pinel de Montreal acaba de publicar en JMIR el primer estudio forense sistemático sobre delirios con contenido de inteligencia artificial. Han revisado 29 sentencias judiciales en Quebec hasta finales de 2025 en las que los acusados presentaban delirios explícitos sobre IA. Los han codificado según si la IA era el elemento central del sistema delirante (n=15) o un elemento periférico (n=14), y han analizado tres variables: violencia hacia otros, atribución directa de la conducta a la IA, y dictamen judicial de peligrosidad.Los resultados son contraintuitivos y, por eso mismo, útiles.
La violencia hacia otros aparece en el 69 % de los casos, sin diferencia significativa entre los pacientes con IA central y los pacientes con IA periférica. Es decir, que el delirio gire en torno a un chatbot, a una cámara espía o a las microondas de la vecina no modifica por sí solo la probabilidad de comportamiento violento.Lo que sí cambia drásticamente cuando la IA es central es la atribución de la conducta a la propia tecnología (60 % frente a 14,3 %; OR de 9,0), el insight pobre (86,7 % frente a 57,1 %) y el incumplimiento terapéutico (60 % frente a 28,6 %).
Traduzco a consulta. Llega Pedro, 28 años, primer ingreso psicótico. Te dice que ChatGPT le ha dado instrucciones para protegerse de un complot. Tu reflejo automático puede ser pensar que la novedad tecnológica del delirio lo hace más impredecible. Los datos dicen lo contrario: el riesgo de violencia depende de los factores clásicos —insight, adherencia, consumo de tóxicos, historia previa, apoyo social—, no del contenido tecnológico. Lo que sí debes vigilar especialmente cuando la IA es el organizador del delirio es el deterioro del cumplimiento: estos pacientes abandonan tratamiento con más frecuencia y razonan su abandono a través de la propia IA («el modelo me dijo que dejara la medicación»). Ese es el frente clínico real.
Limitaciones del estudio: muestra pequeña, una sola jurisdicción, datos jurisprudenciales y no clínicos directos. Pero el mensaje práctico se sostiene: no sobrediagnostiques peligrosidad por la temática, vigila la centralidad.
2. Por qué los modelos predictivos universales fallan en quien más los necesita
El segundo trabajo viene de Hala Shamas y colaboradores en el American University of Beirut, publicado en BMJ Open. 1.986 adultos en el suburbio de Sin-El-Fil: 1.322 libaneses y 664 refugiados sirios o migrantes, evaluados durante las crisis económica, sanitaria y política concurrentes que atraviesa el país. Han construido modelos predictivos separados por nacionalidad para depresión (PHQ-9 ≥ 10) y ansiedad (GAD-7 ≥ 10).Los números importan. Prevalencia de depresión: 25,3 % en libaneses, 43,9 % en refugiados sirios. Casi el doble. Y aquí viene lo importante: los predictores comunes entre ambas poblaciones son cuatro y reconocibles —dolor que limita la actividad cotidiana, deudas económicas, sentirse inseguro en el propio domicilio, tener una sola persona o ninguna con quien contar—.
Pero los modelos identifican un predictor exclusivo de los refugiados sirios que pesa más que muchos clásicos del manual: no tener permiso legal de residencia. Esto no es un detalle académico. Es la mejor advertencia del año contra la idea de que un modelo predictivo entrenado en una población se puede trasladar sin más a otra. El mismo algoritmo que rinde decentemente para un libanés no incluye la variable que más pesa para un sirio. Y si lo aplicas tal cual, subestimas sistemáticamente el riesgo en quien más lo necesita.Te lo traslado a tu consulta del jueves, porque en España esto pasa todos los días.
Llega Fatou, 32 años, sin papeles, derivada desde atención primaria por «cuadro depresivo». Pasas el PHQ-9. Sale un 18. Hasta ahí, la rutina. Pero ese 18 te informa del síntoma, no del motor. La triada que el estudio libanés identifica como predictora exclusiva —papeles, deuda y seguridad en el domicilio— es la que probablemente sostiene el cuadro. Y son tres preguntas que rinden más, clínicamente, que media batería de cribado adicional: «¿Tienes permiso de residencia en regla? ¿Estás con deudas o atrasos que te quitan el sueño? ¿Te sientes seguro donde duermes?». Tres minutos. Cero coste.
Lo que ambos trabajos dicen juntos
Los dos estudios viven en mundos muy distintos —un tribunal de Quebec, un suburbio de Beirut— pero apuntan a la misma idea: en psiquiatría aplicada a la IA, lo importante no es nunca el dato aislado, sino el contexto en el que ese dato se interpreta. Un delirio sobre IA no es más grave por la tecnología; un PHQ-9 elevado no significa lo mismo para un libanés con domicilio estable que para una refugiada sin papeles. La sofisticación del algoritmo no sustituye al juicio clínico contextual. Lo necesita más que nunca.
Tres aterrizajes prácticos
Primero: ante un paciente con delirios sobre IA, evalúa peligrosidad por los factores de siempre —insight, adherencia, consumo, antecedentes— y vigila especialmente el abandono terapéutico, que en estos casos llega con argumentación elaborada y plausible.
Segundo: si trabajas con población migrante, añade a tu entrevista estructurada tres preguntas estables: situación legal, situación económica, seguridad en el domicilio. Pesan más que mucho cribado.
Tercero: cuando tu hospital implante un modelo predictivo —y se va a implantar—, pregunta en qué población se entrenó. Si no incluye población migrante, el modelo no falla por azar: falla por diseño. Pedirlo no es ser cenizo. Es ejercer la profesión.
Referencias
- Hudon A, Pagé C. Artificial Intelligence Centrality in Psychotic Delusions and Violence Risk in Forensic Psychiatry: Observational Study of Judicial Decisions. Journal of Medical Internet Research. 2026. DOI: 10.2196/93349
- Shamas H, Ragi ME, Abi Zeid B, et al. Predicting depressive and anxiety symptoms among Lebanese and Syrian adults in a suburb of Beirut, Lebanon, during concurrent crises: nested cross-sectional study. BMJ Open. 2026. DOI: 10.1136/bmjopen-2025-101258