Hasta hace poco, la IA en psiquiatría significaba una cosa concreta: un modelo que analiza datos y te devuelve una predicción o una recomendación. Tú decides. Tú actúas.
Hay un artículo publicado la semana pasada en npj Digital Medicine que describe algo diferente. Se llama IA agéntica, y la diferencia no es menor: un sistema agéntico...
Hasta hace poco, la IA en psiquiatría significaba una cosa concreta: un modelo que analiza datos y te devuelve una predicción o una recomendación. Tú decides. Tú actúas.
Hay un artículo publicado la semana pasada en npj Digital Medicine que describe algo diferente. Se llama IA agéntica, y la diferencia no es menor: un sistema agéntico no solo te da una recomendación, sino que puede ejecutar acciones de manera autónoma. Enviar un recordatorio al paciente. Ajustar un protocolo de seguimiento. Escalar una alerta. Iniciar una secuencia de intervención. Todo eso sin que tú aprietes ningún botón.
Los autores, con afiliaciones internacionales de primer nivel, proponen reimaginar la atención psiquiátrica con estos sistemas como columna vertebral operativa. El argumento clínico es real: hay tareas de seguimiento que no se hacen porque no hay tiempo, no porque no sean importantes. El paciente dado de alta tras un primer episodio psicótico que debería tener contacto de seguimiento a las 48 horas y a los siete días —y que en el 60% de los casos en entorno privado no lo tiene de forma estructurada— es exactamente el tipo de caso donde un sistema agéntico podría marcar una diferencia medible.
Pero hay un problema que el propio artículo reconoce con claridad, y que merece más atención que los titulares sobre el potencial: la responsabilidad clínica. ¿Quién responde cuando el sistema agéntico toma una decisión incorrecta? ¿El médico que lo ha configurado? ¿La empresa que lo ha desarrollado? ¿El hospital que lo ha desplegado? En el marco regulatorio europeo actual —AI Act y RGPD— los sistemas de IA en salud mental de alto riesgo requieren supervisión humana activa en las decisiones que afectan directamente al paciente. Un sistema agéntico que actúa solo en ese contexto está, en la práctica, en una zona gris legal que todavía no tiene respuesta clara.
Para el psiquiatra en ejercicio en España, el mensaje práctico tiene dos niveles. A corto plazo: no hay sistemas agénticos clínicamente desplegados y regulados para psiquiatría privada en España en este momento. Lo que existe son herramientas de automatización parcial —recordatorios automáticos, alertas de adherencia, seguimiento por mensajería— que ya funcionan en algunas plataformas y que son la versión más básica de esta idea. Si usas alguna de ellas, ya estás en el extremo más modesto del espectro agéntico.
A medio plazo: este es el campo donde la aceleración va a ser más visible en los próximos 18 a 24 meses. Los mismos sistemas que hoy te ayudan a dictar una nota clínica van a empezar a ofrecerte flujos de seguimiento automatizados. La pregunta que conviene hacerse ahora, antes de que llegue la propuesta comercial, es qué nivel de autonomía estás dispuesto a delegar en un sistema automatizado, y para qué tipo de decisiones.
El artículo de npj Digital Medicine incluye un marco de evaluación de riesgos que, aunque pensado para sistemas hospitalarios de escala, tiene una lógica aplicable a cualquier consulta: antes de automatizar cualquier acción clínica, pregúntate qué pasa cuando el sistema falla. Si la respuesta es "me entero tarde", el sistema necesita más supervisión humana. Si la respuesta es "se genera una alerta y yo reviso", estás en un territorio más razonable.
La IA agéntica no es ciencia ficción. Es la siguiente iteración de las herramientas que ya estás usando, o que usarás en dos años. Entender qué puede hacer, qué no debe hacer sola, y dónde está el límite de tu responsabilidad clínica es, a estas alturas, parte del trabajo.
Referencias:
Reimagining Psychiatric Care with Agentic AI. Sharma et al., npj Digital Medicine, art. 252, semana 28 mar–3 abr 2026. https://www.nature.com/articles/s41746-026-02453-4
Anticipation and Prevention of Real Risks of Virtual Environments in Psychiatry. Marloth et al., npj Digital Medicine, art. 164, 2026. https://www.nature.com/articles/s41746-026-02348-4