PUBLICIDAD

Actualidad y Artículos | Psiquiatría general   Seguir 95

Me Gusta   0 0 Comentar  0 0

Inteligencia Artificial para erradicar el suicidio



0%
Noticia | 18/11/2019

La inteligencia Artificial (IA) es una de las tecnologías más candentes de momento. El recurso al que se aferran las empresas para completar la ya iniciada transformación digital. Una tecnología que despierta tantas dudas como expectación. Existen innumerables proyectos que sacan provecho de sus bondades, aunque no todos aplican estos avances a un nivel demasiado profundo. La medida, sin ir más lejos, tiene una gran oportunidad para lograr diagnósticos más precisos por medio de los algoritmos. No como sustituto, pero sí como complemento.


El llamado «aprendizaje profundo» («Deep Learning», en inglés) es una de sus ramas con más fuerza. Representa un cambio conductual y metodológico que promete resultados más precisos. Estudios clínicos, de hecho,  han empezado a experimentar con esta tecnología en los últimos años para casos muy concretos, pero sobre todo se vislumbra con gran esperanza para lograr la detección precoz en patologías. Incluso en salud mental, cuyos casos están cada vez más aumentando a un ritmo preocupante.


Recientes investigaciones han apuntado a la tesis de compatibilidad de la IA con los diagnósticos de trastornos de estrés postraumático. Expertos están convencidos de que existen posibilidades de aprovechar sistemas de «aprendizaje profundo» para una detección temprana mediante la identificación y la monitorización de marcadores muy concretos como señales verbales y físicas que pueden indicar un comportamiento suicida en una persona,  informa «The Next Web». El suicidio es la décima causa de muerte en los Estados Unidos y la segunda entre adolescentes.



Un estudio reciente de la universidad de Nueva York ha permitido crear un sistema basado en inteligencia artificial que es capaz de procesar el lenguaje natural de una persona basándose en la misma tecnología de los asistentes digitales domésticos como Alexa, Assistant y Siri. Según los expertos, se puede detectar trastornos de estrés postraumáticos en veteranos de guerra con una precisión del 89 % con solo con escuchar grabaciones de audio. Algo que podría ejecutarse a casos domésticos.


La voz puede ser un indicador de un posible impulso suicida. Esta es la teoría en la que empezaron a trabajar otros investigadores hace varios años a partir de investigaciones previas de Stephen Silverman, psiquiatra de la universidad de Yale, quien participó a principios del milenio en el desarrollo de un protocolo para ayudar a los servicios de atención telefónica. A partir de entonces se han desarrollado herramientas concebidas para la detección precoz.  En 2017, la universidad de Vanderbilt (Nashville, Estados Unidos) crearon un algoritmo capaz de predecir los intentos suicidas con una precisión del 92 %.


Para ello, el software cruzaba varios parámetros para devolver una previsión. Se analizan registros médicos de los paciente, pero también otros valores como el género o, incluso, la ubicación por medio del código postal. El problema al que se enfrentan los investigadores es que el suicidio, un problema tabú en las sociedades avanzadas, no es una enfermedad como tal sino un síntoma o consecuencia. Aunque se ha avanzado hacia una mayor concienciación, los problemas de salud mental como la depresión o ansiedad generan cierta incomprensión social que provoca que muchas veces no sean ni siquiera tratados por profesionales médicos.


Conscientes de estos problemas, las principales redes sociales han incluso diseñado protocolos de actuación para intentar frenar esta lacra. Muchas veces, usuarios con tendencia suicidas suelen dejar pistas en sus publicaciones. Desde 2017 Facebook ha puesto en marcha una herramienta de inteligencia artificial para ayudar a usuarios que puedan estar contemplando el suicidio mientras usan la plataforma, con objeto de evitar que den ese paso. La compañía busca reconocer patrones en las publicaciones y en los vídeos en directo de los usuarios que sugieran que un persona está considerando la opción de acabar con su vida, explicó la empresa en un comunicado. También la multinacional asegura contar con equipos humanos que prestan su ayuda en estos casos.

Fuente: ABC
Url corta de esta página: http://psiqu.com/2-60224

Comentarios de los usuarios


Buenos días, parece claro que el suicidio y creo que la muerte en general, tendremos que aprender a afrontarlo y ahora a tratarlo de forma de inteligencia artificial porque de forma de forma inteligente natural no somos capaces, ni nos van a dejar. En fin a seguir investigando como hacen muchos de mis pacientes adictos, buscar una química adecuada para cada situación o problema del alma o del cuerpo. Seguimos creo sin entender, sin vernos, pero muy entretenidos por todo lo que pasa fuera de nosotros.Todo lo cual nos lleva a un infinito consumo de fármacos estabilizadores de vida, no para todas las criaturas pero si para las mas vulnerables. Saludos y como siempre me sale la vena filosófica pero muy importante para entendernos los 3 días mal contados que vamos a andar por la tierra.

Jose Luis Frias Pulido
Médico - España
Fecha: 20/11/2019



No hay ningun comentario, se el primero en comentar

Recomendamos

GOLDBERG, STAHL. PSICOFARMACOLOGÍA PRÁCTICA

Goldberg y Stephen M. Stahl. Prologo de Alan F. Schatzberg. Durante las últimas cuatro décadas, l...

VER MÁS
VER TODO
página antidepresivos
Publicidad

Próximos cursos

CFC
▶️ VÍDEO

Tratamiento Asertivo Comunitario en salud mental: formación de equipos TAC

Inicio: 16/10/2024 |Precio: 275€

Ver curso