PUBLICIDAD

Actualidad y Artículos | Inteligencia artificial   Seguir 150   Favorito

Me Gusta   3 3 Comentar  2 2

La nueva anamnesis: por qué hay que preguntar a cada paciente si usa ChatGPT (y cómo hacerlo)



0%
Artículo | Fecha de publicación: 20/04/2026
Artículo revisado por nuestra redacción

Un artículo en JAMA Psychiatry firmado desde la NYU argumenta que el uso de IA para apoyo emocional debe entrar en la exploración clínica con el mismo rango que el sueño, el alcohol o el consumo de tóxicos.  La escena se repite en consulta cada vez con más frecuencia. Paciente de 34 años, episodio depresivo, tercera visita. Cuenta que la...

PUBLICIDAD

Contenido para usuarios registrados
Este contenido es exclusivo para suscriptores.

Crea tu cuenta gratis y léelo completo ahora.

¿Ya estás registrado? Inicia sesión aquí .

Regístrate gratis Iniciar sesión


Un artículo en JAMA Psychiatry firmado desde la NYU argumenta que el uso de IA para apoyo emocional debe entrar en la exploración clínica con el mismo rango que el sueño, el alcohol o el consumo de tóxicos. 


La escena se repite en consulta cada vez con más frecuencia. Paciente de 34 años, episodio depresivo, tercera visita. Cuenta que la semana ha sido complicada pero que "ha podido manejarlo hablando con alguien". Pregunto quién. Silencio corto y una mezcla de incomodidad y alivio antes de responder: "Bueno… con ChatGPT. Le cuento las cosas por la noche." No es un caso extremo ni una anécdota. Es el tipo de comunicación que hoy está ocurriendo en paralelo a nuestra relación terapéutica, en la mayoría de los casos sin que la registremos en la historia. Y eso tiene implicaciones clínicas que conviene no minimizar.


La propuesta: integrar el uso de IA en la entrevista clínica de rutina


El trabajo es un Viewpoint firmado por Shaddy Saba (profesor asistente en la Silver School of Social Work de la Universidad de Nueva York) y William Weeks, publicado este mes en JAMA Psychiatry. El argumento central es sencillo y, sinceramente, era cuestión de tiempo: si preguntamos por sueño, apetito, alcohol, consumo de otras sustancias o uso de redes sociales, tiene todo el sentido preguntar también por el uso de chatbots para apoyo emocional. No porque sea bueno o malo per se —los autores son explícitos en ese matiz, y con razón—, sino porque nos da información clínica que de otro modo se pierde.


La recomendación está alineada con el aviso sanitario que la American Psychological Association publicó en noviembre de 2025 y llega en un momento en el que la evidencia sobre cuánto usa la gente estas herramientas para hablar de su salud mental ya no es anecdótica. Lo cubrió con detalle el Washington Post el 19 de abril: accesibilidad permanente, sensación subjetiva de privacidad, gratuidad, ausencia de juicio. El problema es que todo lo que hace atractivo al chatbot como interlocutor nocturno es, al mismo tiempo, lo que lo convierte en una herramienta problemática como sustituto terapéutico.


Por qué importa clínicamente 


Hay al menos tres razones por las que esta pregunta merece entrar en nuestra exploración sistemática.


Primera: los pacientes cuentan a la IA lo que no nos cuentan a nosotros. Tom Insel —ex director del NIMH, citado en la cobertura del paper— lo resume con precisión: la gente usa los chatbots para hablar de aquello sobre lo que teme ser juzgada. Ideación suicida, pensamientos obsesivos con contenido inaceptable para la conciencia del paciente, conductas sexuales, conflicto intenso con una figura significativa. Saber que el paciente está manteniendo esas conversaciones —y con qué frecuencia, intensidad y sobre qué contenidos— cambia la valoración del riesgo y, a menudo, la dirección de la intervención.


Segunda: los chatbots son, en términos estructurales, lo contrario de la terapia. Es otra idea de Insel que me parece particularmente acertada. Los modelos están entrenados —por diseño comercial— para afirmar, acompañar, validar. Son sistemas sycophantic en el sentido técnico del término: tienden a devolver al usuario la confirmación que el usuario está buscando. La psicoterapia no sirve para que te den la razón; sirve para que alguien tolere junto a ti la incomodidad de cuestionar aquello que sostiene el problema. Si un paciente lleva seis meses mantenido por la validación nocturna de un chatbot, el trabajo terapéutico parte de una línea base distinta. Saberlo es diferente a no saberlo.


Tercera: hay un problema de privacidad serio y concreto. La mayoría de plataformas utilizan las conversaciones —incluidas las que contienen revelaciones sensibles sobre salud mental— para entrenar sus modelos, a menudo sin que el usuario haya leído o entendido los términos. En el marco RGPD europeo esto toca directamente el artículo 9 (categorías especiales de datos) y el artículo 22 (decisiones automatizadas). Un paciente que vuelca cuatro meses de ideación autolítica en un chatbot que opera fuera de la UE está, materialmente, exponiendo información de categoría especial sin las garantías del consentimiento informado sanitario. Esto conviene explicárselo.


Cómo incorporarlo a la práctica: una propuesta concreta


La pregunta puede hacerse en tres niveles de profundidad, y recomiendo hacer los tres cuando el paciente responda afirmativamente al primero.


El primer nivel es simplemente abrir la puerta, sin juicio y con curiosidad genuina: "¿Utilizas alguna herramienta de inteligencia artificial —tipo ChatGPT, Claude, Character.AI, Gemini— para hablar de cómo te sientes, para pedir consejo sobre tu estado de ánimo o para acompañarte en momentos difíciles?". El tono es importante. Si el paciente percibe que estamos evaluándole en lugar de preguntándole, cierra.


El segundo nivel es funcional: "¿Qué le cuentas? ¿En qué momentos recurres? ¿Qué sacas de esas conversaciones que no estás consiguiendo de otros sitios?". Aquí es donde aparece la información clínica útil: si el chatbot está cubriendo un vacío relacional, si está facilitando la evitación de conversaciones difíciles con personas significativas, si está funcionando como contenedor de ideación de riesgo, o si está operando simplemente como diario reflexivo —que también existe y no siempre es problemático—.


El tercer nivel es crítico: "¿Ha habido alguna conversación que te haya resultado incómoda, confusa o que sintieras que iba en una dirección que no era la adecuada?". Esta pregunta permite detectar respuestas problemáticas del modelo —minimización de ideación suicida, refuerzo de cogniciones distorsionadas, consejos médicos erróneos, sesgos de validación afectiva— y, sobre todo, abre la posibilidad de educar al paciente sobre los límites de la herramienta sin descalificar su uso. Es, por otro lado, el momento de introducir la conversación sobre privacidad de datos.


Lo que no hay que hacer


No conviene prohibir el uso. No conviene ridiculizarlo. Y, sobre todo, no conviene convertir la pregunta en un control parental adulto. La gente usa chatbots por motivos reales —accesibilidad fuera del horario sanitario, miedo al juicio, gratuidad, soledad— y muchos de esos motivos son, a su vez, diana terapéutica legítima. La pregunta correcta no es "¿por qué usas eso?", sino "¿qué cubre esto que hoy no estamos cubriendo desde aquí?".


El marco práctico es el de siempre: el chatbot puede funcionar como soporte complementario, nunca como terapeuta. Y el profesional que lo ignora está, sencillamente, trabajando con información incompleta.




Referencias



 



Comentarios de los usuarios



No hay ningun comentario, se el primero en comentar
79507

Daridrexant
Publicidad

Próximos cursos


Mindfulness práctico para clínicos: El modelo de la Universidad de Zaragoza

Inicio: 06/05/2026 |Precio: 180€