30 años acompañando a los profesionales de la salud mental
Descubre la nueva etapa de Psiquiatria.com

PUBLICIDAD

Actualidad y Artículos | Inteligencia artificial   Seguir 117   Favorito

Me Gusta   2 2 Comentar  2 2

IA y prevención del suicidio: desafíos reales al desarrollar algoritmos predictivos con historias clínicas electrónicas



0%
Artículo | Fecha de publicación: 19/01/2026
Artículo revisado por nuestra redacción

La inteligencia artificial (IA) se ha convertido en uno de los grandes focos de interés en salud mental, especialmente ante el aumento de la demanda asistencial, la escasez de profesionales y la necesidad de mejorar la detección precoz de situaciones de alto riesgo. Entre las posibles aplicaciones, la predicción del riesgo suicida ocupa un lugar destacado, pero también ...

PUBLICIDAD

Contenido para usuarios registrados
Este contenido es exclusivo para suscriptores.

Crea tu cuenta gratis y léelo completo ahora.

¿Ya estás registrado? Inicia sesión aquí .

Regístrate gratis Iniciar sesión

La inteligencia artificial (IA) se ha convertido en uno de los grandes focos de interés en salud mental, especialmente ante el aumento de la demanda asistencial, la escasez de profesionales y la necesidad de mejorar la detección precoz de situaciones de alto riesgo. Entre las posibles aplicaciones, la predicción del riesgo suicida ocupa un lugar destacado, pero también especialmente sensible desde el punto de vista clínico, ético y organizativo.


Un estudio reciente publicado en JMIR Medical Informatics analiza en profundidad el desarrollo de un algoritmo predictivo de riesgo de suicidio basado en datos reales de historias clínicas electrónicas (Electronic Health Records, EHR) en un sistema de salud mental de los Países Bajos. A diferencia de otros trabajos centrados únicamente en el rendimiento técnico, este estudio adopta una perspectiva sociotécnica, examinando los retos reales que surgen cuando se intenta trasladar la IA desde el laboratorio a la práctica clínica.


Del potencial teórico a la práctica real


Durante la última década, numerosos estudios han mostrado que los modelos de aprendizaje automático pueden superar a los métodos estadísticos tradicionales en la predicción de conductas suicidas. Sin embargo, la mayoría de estos modelos no llegan a implementarse en entornos clínicos reales. Este fenómeno, conocido como la “brecha de la IA” (AI chasm), refleja la distancia entre la innovación técnica y su aplicación práctica.


El estudio de JMIR se sitúa precisamente en ese punto crítico: analiza cómo se desarrolló un algoritmo predictivo utilizando datos clínicos reales, qué problemas surgieron y cómo se intentaron abordar. El algoritmo, aún en fase exploratoria y no implementado en la práctica clínica, se diseñó como una herramienta de apoyo adicional a los protocolos existentes de prevención del suicidio, manteniendo siempre a los profesionales sanitarios como responsables finales de la toma de decisiones.


El reto de definir y medir el “riesgo suicida”


Uno de los primeros desafíos identificados fue definir qué se entiende por “incidente suicida” dentro de los datos clínicos. En la práctica asistencial, la información sobre intentos de suicidio y conductas autolesivas suele estar fragmentada, incompleta o registrada de forma desigual según el profesional, el servicio o el contexto clínico.


El equipo detectó discrepancias entre distintas fuentes internas de datos, así como un posible subregistro, especialmente de los episodios menos graves. Esta situación no solo plantea problemas técnicos para entrenar un algoritmo fiable, sino que también refleja ambigüedades clínicas reales: no siempre es sencillo distinguir entre una conducta autolesiva con intención suicida y otras formas de autolesión con funciones diferentes.


Para mejorar la detección de estos eventos, los investigadores exploraron el uso de procesamiento del lenguaje natural (NLP) aplicado a las notas clínicas no estructuradas. Aunque esta estrategia permitió identificar señales relevantes, también generó un alto nivel de ruido, debido a negaciones, expresiones ambiguas o el uso de plantillas estandarizadas en los informes clínicos.


Datos clínicos reales: calidad, sesgos y limitaciones


El uso de EHR ofrece una ventaja clave: permite trabajar con datos del mundo real, representativos de la práctica cotidiana. Sin embargo, estos datos suelen ser incompletos, heterogéneos y difíciles de reutilizar para fines predictivos.


El estudio pone de relieve varios riesgos de sesgo. Por ejemplo, algunos cuestionarios de prevención del suicidio solo estaban disponibles en una parte de los pacientes, generalmente aquellos en los que ya existía una sospecha clínica de alto riesgo. Esto podía conducir a modelos entrenados con datos no representativos del conjunto de la población atendida.


Además, muchas variables psicosociales relevantes —como el apoyo social o la calidad de la relación terapéutica— no están directamente registradas en los EHR. Para incluirlas en el modelo, el equipo tuvo que construir estimaciones indirectas a partir de otros indicadores disponibles, asumiendo las limitaciones inherentes a este enfoque.


Estos hallazgos subrayan que la IA no elimina los problemas estructurales de los datos clínicos, y que sin una buena gobernanza del dato, los algoritmos pueden reproducir o amplificar sesgos existentes.


Modelos complejos vs. explicabilidad clínica


Desde el punto de vista técnico, el uso de modelos complejos de aprendizaje automático permitió mejorar la capacidad predictiva del algoritmo. Sin embargo, este aumento de rendimiento tuvo un coste: la pérdida de interpretabilidad.


Los clínicos implicados en el proyecto valoraron positivamente el potencial del algoritmo, pero insistieron en que una predicción sin explicación resulta poco útil en la práctica asistencial. En un ámbito tan sensible como la prevención del suicidio, no basta con saber que el riesgo es alto; es fundamental comprender por qué el algoritmo emite esa señal y qué factores están contribuyendo al resultado.


Como respuesta, el equipo incorporó la explicabilidad como un requisito central del proyecto y planteó el desarrollo de paneles que permitieran contextualizar las predicciones, facilitando su interpretación por parte de los profesionales.


El papel clave del “clinician-in-the-loop”


Uno de los mensajes más claros del estudio es la importancia de mantener un enfoque “clinician-in-the-loop”. El algoritmo se concibe como una herramienta de apoyo, no como un sustituto del juicio clínico ni de los protocolos establecidos.


Los autores subrayan que el uso responsable de la IA en salud mental requiere definir claramente los roles, las responsabilidades y los límites de la tecnología. También alertan sobre riesgos cognitivos bien conocidos, como el sesgo de automatización o la sobreconfianza en sistemas algorítmicos, que pueden influir en la toma de decisiones si no se gestionan adecuadamente.


Implicaciones para la psiquiatría basada en datos


Más allá del caso concreto del suicidio, este estudio ofrece lecciones generales para las organizaciones que aspiran a avanzar hacia una psiquiatría basada en datos:


La calidad del dato es un requisito previo, no un detalle técnico.
La colaboración temprana entre clínicos y científicos de datos es esencial.
La explicabilidad y la integración en los flujos de trabajo son tan importantes como la precisión.
La IA debe desarrollarse e implementarse de forma gradual, evaluada y ética.


Un enfoque realista y responsable


El estudio concluye que la IA puede aportar valor en la prevención del suicidio, pero solo si se aborda desde una perspectiva realista, responsable y centrada en las personas. La tecnología, por sí sola, no resuelve los desafíos de la salud mental; su impacto depende de cómo se diseña, se integra y se utiliza en contextos clínicos complejos.


Este trabajo contribuye a un debate cada vez más relevante: cómo pasar del entusiasmo por la IA a su uso responsable y útil en la práctica clínica real, sin perder de vista la seguridad del paciente, la ética y el papel insustituible de los profesionales sanitarios.


Pedro Moreno Gea
Psiquiatria.com · Inteligencia Artificial


 


Artículo original disponible en:
https://medinform.jmir.org/2026/1/e74240Hummel L, Lorenz-Artz KCAG, Bierbooms JJPA, Bongers IMB
Developing a Suicide Risk Prediction Algorithm Using Electronic Health Record Data in Mental Health Care: Real-World Case Study
JMIR Medical Informatics, 2026;14:e74240
Publicado el 14 de enero de 2026.


Licencia: Creative Commons Attribution 4.0 International (CC BY 4.0)

Comentarios de los usuarios



No hay ningun comentario, se el primero en comentar


Publicidad
Daridrexant
Publicidad

Próximos cursos

CFC 8,9 pend. créditos
▶️ VÍDEO

Terapia basada en mindfulness en personas mayores. Aplicación de un programa para el desarrollo de una atención consciente y madura

Inicio: 15/07/2026 |Precio: 120€