La inteligencia artificial (IA) está comenzando a mostrar resultados prometedores en el campo de la psiquiatría, aunque los éxitos han sido moderados. Los estudios sugieren que, para mejorar el rendimiento de estos modelos, es esencial incorporar datos derivados de evaluaciones clínicas.
Este estudio aborda específicamente el uso de modelos lingüísti...
La inteligencia artificial (IA) está comenzando a mostrar resultados prometedores en el campo de la psiquiatría, aunque los éxitos han sido moderados. Los estudios sugieren que, para mejorar el rendimiento de estos modelos, es esencial incorporar datos derivados de evaluaciones clínicas.
Este estudio aborda específicamente el uso de modelos lingüísticos amplios (LLM) en la detección de riesgo de suicidio a partir de textos médicos dentro de la atención psiquiátrica, evaluando su potencial para apoyar la vigilancia y la gestión clínica de tendencias suicidas en tiempo real.
Objetivos
El objetivo principal es extraer información precisa sobre el riesgo de suicidio a partir de las notas de admisión de registros médicos electrónicos (EHR) utilizando LLM que se alojan de forma local, priorizando la privacidad de los datos de los pacientes.
Este estudio se enfoca en evaluar la eficacia de las versiones del modelo Llama-2 en la detección de tendencias suicidas, midiendo su precisión y confiabilidad en este contexto clínico.
Método
Se comparó el rendimiento de varias versiones de Llama-2, un modelo de lenguaje de código abierto, en la extracción de información relacionada con la suicidalidad de un conjunto de 100 informes psiquiátricos. La eficacia de cada variante se evaluó mediante una "verdad fundamental" definida por expertos humanos en psiquiatría, utilizando métricas de precisión, sensibilidad, especificidad y la puntuación F1. Adicionalmente, se probaron diferentes estrategias de diseño de indicaciones para optimizar la capacidad del modelo en detectar con exactitud las tendencias suicidas.
Resultados
Los resultados destacaron que una versión perfeccionada de Llama-2 en alemán alcanzó el mejor rendimiento, con una precisión del 87. 5%, una sensibilidad del 83. 0% y una especificidad del 91. 8% en la identificación de tendencias suicidas.
Las mejoras en la precisión y en la sensibilidad sugieren que el modelo es capaz de identificar señales relevantes en textos médicos, ajustándose de forma óptima en diversos diseños de indicaciones o prompts. Este nivel de precisión demuestra el potencial de los LLM para complementar el trabajo clínico, proporcionando alertas tempranas y apoyo en la evaluación de tendencias suicidas.
Conclusiones
El estudio confirma que los LLM, y en particular Llama-2, tienen una capacidad notable para extraer información sobre tendencias suicidas de los registros psiquiátricos con alta precisión, preservando a la vez la privacidad de los datos médicos.
Este avance subraya la posibilidad de aplicar estos modelos en sistemas de vigilancia para emergencias psiquiátricas y en el perfeccionamiento de la gestión clínica de pacientes en riesgo. Además, la precisión de estos modelos en la evaluación de tendencias suicidas abre puertas a mejorar el control de calidad en los registros clínicos y a facilitar la investigación sistemática, fortaleciendo así la capacidad de respuesta y monitoreo en entornos de salud mental.
Para acceder al texto completo consulte las características de suscripción de la fuente original:https://www.cambridge.org/