PUBLICIDAD

Actualidad y Artículos | Nuevas tecnologías en psiquiatría/psicología   Seguir 6

Me Gusta   1 1 Comentar  2 2

Empatía hacia la inteligencia artificial frente a las experiencias humanas y el papel de la transparencia en el diseño de chatbots de salud mental y apoyo social

  • Autor/autores: Shen J , DiPaola D , Ali S...(et.al)



0%
Artículo | 17/10/2024

Introducción La empatía es fundamental para nuestra conexión con los demás, nuestro bienestar mental y la resiliencia ante los desafíos. Con el crecimiento de los sistemas de inteligencia artificial (IA) generativa, como los chatbots de salud mental y los compañeros de apoyo social impulsados por IA, surge la necesidad de comprender cómo las person...

Estás viendo una versión reducida de este contenido.

Para consultar la información completa debes registrarte gratuitamente.
Tan sólo te llevará unos segundos.
Y si ya estás registrado inicia sesión pulsando aquí.

Introducción


La empatía es fundamental para nuestra conexión con los demás, nuestro bienestar mental y la resiliencia ante los desafíos. Con el crecimiento de los sistemas de inteligencia artificial (IA) generativa, como los chatbots de salud mental y los compañeros de apoyo social impulsados por IA, surge la necesidad de comprender cómo las personas desarrollan empatía hacia historias narradas por humanos frente a aquellas generadas por IA.


Este entendimiento tiene implicaciones directas en el diseño de herramientas de IA centradas en el ser humano y plantea cuestiones éticas sobre el uso de chatbots de salud mental como objetos de empatía. El papel de la transparencia en la identificación del autor de la narrativa también se destaca como un factor potencialmente importante que puede afectar las emociones de los usuarios.


Objetivo


El objetivo de este estudio fue explorar cómo cambia la empatía de los usuarios hacia historias según su origen, es decir, si son escritas por humanos o por sistemas de IA. Además, buscamos examinar cómo la transparencia en la revelación del autor (humano o IA) afecta la disposición de los usuarios a empatizar y cómo estos hallazgos pueden informar consideraciones éticas y el diseño de chatbots de salud mental empáticos.


Métodos


Se llevaron a cabo estudios colaborativos con 985 participantes. Cada participante escribió una historia personal y luego se le pidió que calificara su nivel de empatía hacia dos historias recuperadas: una escrita por un modelo de lenguaje de IA y otra por un humano.


Para evaluar el impacto de la transparencia, el estudio variaba entre revelar o no la naturaleza del autor (humano o IA) de las historias presentadas. Se emplearon análisis de métodos mixtos. A través de pruebas estadísticas, se comparó el nivel de empatía autorreportado por los usuarios hacia las historias bajo diferentes condiciones de transparencia.


Adicionalmente, se realizó una codificación cualitativa de los comentarios abiertos proporcionados por los participantes, con el fin de comprender cómo y por qué la información sobre el autor afectaba la empatía hacia los narradores humanos en comparación con los de IA.


Resultados


Los resultados mostraron que los participantes empatizaron de manera significativamente mayor con las historias escritas por humanos en casi todas las condiciones, ya fueran conscientes (t = 7, 07, P < 0, 001, Cohen d = 0, 60) o no conscientes (t = 3, 46, P < 0, 001, Cohen d = 0, 24) de que la historia había sido generada por un sistema de IA.


Sin embargo, también se observó que los participantes estaban más dispuestos a empatizar con las historias escritas por IA cuando se les informaba de manera transparente sobre el autor (t = -5, 49, P < 0, 001, Cohen d = 0, 36). Esto sugiere que la transparencia en la autoría puede influir positivamente en la disposición de los usuarios a mostrar empatía hacia narrativas generadas por IA.


Conclusiones


Este estudio arroja luz sobre cómo la empatía hacia los narradores, ya sean humanos o IA, está influenciada por la forma en que se presenta la narrativa y la información sobre su autor.


Los hallazgos indican que los usuarios tienden a mostrar mayor empatía hacia las historias humanas, aunque la transparencia respecto al origen del autor (humano o IA) puede aumentar la disposición a empatizar con las historias generadas por IA.


Estas conclusiones tienen implicaciones éticas importantes para el diseño y uso de sistemas de IA en contextos de apoyo social y salud mental. La forma en que se presenta la autoría de las historias puede afectar la percepción y eficacia de los chatbots de salud mental empáticos.


Por lo tanto, los diseñadores y desarrolladores de estas herramientas deben considerar cuidadosamente cómo la transparencia y el origen del contenido pueden influir en la experiencia y las emociones de los usuarios, promoviendo un enfoque más ético y centrado en el ser humano.


Para acceder al texto completo consulte las características de suscripción de la fuente original:https://mental.jmir.org/

Comentarios de los usuarios



No hay ningun comentario, se el primero en comentar

Recomendamos

Suicidio Prevención

¡Novedad en libros! La visión actual del suicidio, científicamente fundamentada, es que, aunque ...

VER MÁS
VER TODO
vortioxetina antidepresivos
Publicidad

Próximos cursos


Terapia de compasión basada en los estilos de apego

Inicio: 05/02/2025 |Precio: 180€

Ver curso