PUBLICIDAD

Actualidad y Artículos | Psiquiatría general   Seguir 108

Me Gusta   1 1 Comentar  2 2

Advierten de los riesgos psicológicos de usar la IA para `hablar´ con seres queridos fallecidos



0%
Noticia | 10/05/2024

 


La inteligencia artificial que permite a los usuarios mantener conversaciones de texto y de voz con sus seres queridos perdidos corre el riesgo de causar daño psicológico e incluso "perseguir" digitalmente a quienes se quedan atrás sin estándares de seguridad de diseño, según investigadores de la Universidad de Cambridge (Reino Unido).


La investigación, publicada en la revista 'Philosophy and Technology', destaca el potencial de las empresas de utilizar robots muertos para anunciar subrepticiamente productos a los usuarios a la manera de un ser querido fallecido, o angustiar a los niños al insistir en que un padre fallecido todavía está "con usted".



PUBLICIDAD



Los 'Deadbots' o 'Griefbots' son chatbots de inteligencia artificial que simulan los patrones de lenguaje y los rasgos de personalidad de los muertos utilizando las huellas digitales que dejan. Algunas empresas ya ofrecen estos servicios, proporcionando un tipo completamente nuevo de "presencia post mortem".


Los especialistas en ética de la IA del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge describen tres escenarios de diseño para plataformas que podrían surgir como parte de la "industria de la vida futura digital" en desarrollo, para mostrar las posibles consecuencias de un diseño descuidado en un área de la IA que describen como de "alto riesgo"


Cuando los vivos se inscriben para ser recreados virtualmente después de su muerte, las empresas podrían utilizar los chatbots resultantes para enviar spam a familiares y amigos supervivientes con notificaciones no solicitadas, recordatorios y actualizaciones sobre los servicios que brindan, similar a ser "acechado digitalmente por los muertos".


Incluso aquellos que inicialmente encuentran consuelo en un 'robot muerto' pueden sentirse agotados por las interacciones diarias que se convierten en un "peso emocional abrumador", argumentan los investigadores, pero también pueden ser impotentes para suspender una simulación de IA si su ser querido ahora fallecido firmó un largo contrato. contrato con un servicio de vida futura digital.


"Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido", afirma la doctora Katarzyna Nowaczyk-Basinska, coautora del estudio e investigadora en el Centro Leverhulme para el Futuro de la Inteligencia de Cambridge ( LCFI).


"Esta área de la IA es un campo minado ético. Es importante dar prioridad a la dignidad de los difuntos y garantizar que esto no se vea invadido por motivos financieros, por ejemplo, de servicios digitales de ultratumba.


"Al mismo tiempo, una persona puede dejar una simulación de IA como regalo de despedida a sus seres queridos que no están preparados para procesar su dolor de esta manera. Los derechos tanto de los donantes de datos como de quienes interactúan con los servicios de inteligencia artificial después de la muerte deben salvaguardarse por igual".


Ya existen plataformas que ofrecen recrear a los muertos con IA por una pequeña tarifa, como 'Project December', que comenzó aprovechando modelos GPT antes de desarrollar sus propios sistemas, y aplicaciones como 'HereAfter'. También han comenzado a surgir servicios similares en China.


Si bien Hollanek y Nowaczyk-Basinska dicen que los diseñadores de servicios de recreación deberían buscar activamente el consentimiento de los donantes de datos antes de su aprobación, argumentan que una prohibición de los deadbots basada en donantes que no dan su consentimiento sería inviable.


Sugieren que los procesos de diseño deberían incluir una serie de indicaciones para quienes buscan "resucitar" a sus seres queridos, como "¿alguna vez has hablado con X sobre cómo te gustaría ser recordado?", de modo que la dignidad de los difuntos pase a primer plano. en el desarrollo de deadbot.


Los investigadores recomiendan restricciones de edad para los robots muertos y también piden una "transparencia significativa" para garantizar que los usuarios sean conscientes de que están interactuando con una IA. Podrían ser similares a las advertencias actuales sobre contenidos que pueden provocar convulsiones, por ejemplo.


 


 



PUBLICIDAD


Fuente: Europa Press
Palabras clave: inteligencia artificial, fallecidos, psicología

Comentarios de los usuarios


Terrorífico!!! El Mundo que le vamos a dejar a nuestros herederos!

Angel Roberto Gallardo
Médico - Argentina
Fecha: 12/05/2024



No hay ningun comentario, se el primero en comentar

Recomendamos

GOLDBERG, STAHL. PSICOFARMACOLOGÍA PRÁCTICA

Goldberg y Stephen M. Stahl. Prologo de Alan F. Schatzberg. Durante las últimas cuatro décadas, l...

VER MÁS
VER TODO
desvenlafaxina antidepresivos
Publicidad

Próximos cursos


Funciones ejecutivas en la etapa infantil: Conceptualización y evaluación utilizando BRIEF-P

Precio: 50€