PUBLICIDAD

Actualidad y Artículos | Esquizofrenia, Espectro de la esquizofrenia y otros trastornos psicóticos   Seguir 91

Me Gusta   1 1 Comentar  2 2

Los chatbots y el estigma en la esquizofrenia

  • Autor/autores: Luz Maria Alliende, Beckett Ryden Sands, Vijay Anand Mittal...(et.al)



0%
Artículo | 14/11/2024

El estigma asociado a la salud mental sigue siendo un obstáculo significativo para quienes viven con diagnósticos psiquiátricos, afectando no solo su bienestar, sino también sus resultados en áreas como el acceso a tratamientos, la adherencia a estos y la integración social.


Este estigma se vuelve aún más severo en el caso de personas diagnosticadas con esquizofrenia (PSZ), una condición frecuentemente malentendida y rodeada de percepciones negativas en la sociedad. Estas creencias estigmatizantes pueden ahora estar encontrando una nueva plataforma en el campo emergente de la inteligencia artificial generativa (GAI), que tiene la capacidad de crear contenido a partir de indicaciones dadas, replicando patrones del material de entrenamiento con el que fue alimentada.


La GAI ha experimentado una adopción exponencial en los últimos años, convirtiéndose en una herramienta cada vez más influyente en áreas tan diversas como la psiquiatría clínica, la investigación académica y el uso cotidiano entre usuarios comunes. En particular, los chatbots basados en GAI permiten una interacción dinámica donde el usuario puede escribir una instrucción o pregunta y recibir una respuesta generada por el modelo, generando una especie de “conversación” que se construye sobre la base de relaciones estadísticas detectadas en grandes corpus de texto. Este proceso, en teoría, debería permitir que los modelos de GAI reflejen patrones de comunicación humana. Sin embargo, el entrenamiento de estos sistemas se realiza en su mayoría de forma no supervisada y en base a materiales cuya fuente y naturaleza no se revelan, especialmente en modelos propietarios.



PUBLICIDAD



Este ocultamiento de datos de entrenamiento plantea inquietudes sobre la posible presencia de estigmas incorporados hacia condiciones psiquiátricas como la esquizofrenia. Si el material de entrenamiento contiene sesgos o reflejos de estigma hacia PSZ, es probable que el chatbot reproduzca, sin intención, esas percepciones perjudiciales en sus respuestas. Aunque es posible introducir controles y modificaciones post-entrenamiento para mitigar estos efectos y asegurar una comunicación precisa y sensible, el proceso de ajuste de los modelos GAI después de su entrenamiento suele ser opaco y constantemente cambiante. Esto se hace en función de evaluaciones periódicas de riesgos y beneficios, así como de los comentarios de los usuarios, sin transparencia plena sobre qué cambios se aplican.


La falta de claridad en el desarrollo de estos modelos de IA plantea riesgos en la reproducción inadvertida de estigmas, dado que los usuarios pueden interpretar las respuestas de los chatbots como opiniones objetivas o imparciales. Es imperativo, por lo tanto, implementar controles éticos y metodologías de auditoría que garanticen que los modelos GAI minimicen la estigmatización de poblaciones vulnerables, como las personas con esquizofrenia, promoviendo un uso responsable y ético en el campo de la salud mental.


Para acceder al texto completo consulte las características de suscripción de la fuente original:https://academic. oup.com/

ABRIR ENLACE FUENTE


Palabras clave: chatsbots, estigma, esquizofrenia
Url corta de esta página: http://psiqu.com/2-75358

Comentarios de los usuarios



No hay ningun comentario, se el primero en comentar


Publicidad

Recomendamos

Suicidio Prevención

¡Novedad en libros! La visión actual del suicidio, científicamente fundamentada, es que, aunque ...

VER MÁS
VER TODO
Daridrexant
Publicidad

Próximos cursos


Curso de CIBERSEGURIDAD

Precio: 25€

Ver curso