El uso de chatbots de inteligencia artificial como apoyo emocional se ha convertido en una realidad cotidiana para muchas personas con sufrimiento psicológico. Más allá del debate teórico, cada vez existen más datos que muestran que estos sistemas ya están siendo utilizados en contextos de crisis mental real, incluyendo ideación suicida, ansiedad in...
El uso de chatbots de inteligencia artificial como apoyo emocional se ha convertido en una realidad cotidiana para muchas personas con sufrimiento psicológico. Más allá del debate teórico, cada vez existen más datos que muestran que estos sistemas ya están siendo utilizados en contextos de crisis mental real, incluyendo ideación suicida, ansiedad intensa o desbordamiento emocional.
El preprint Seeking Late Night Life Lines aporta una mirada especialmente relevante para el ámbito clínico, al centrarse no en el rendimiento técnico de la IA, sino en la experiencia vivida de quienes recurren a ella en los momentos más vulnerables.
Uno de los hallazgos centrales del trabajo es que los usuarios no acuden a la IA porque rechacen la ayuda humana, sino porque existen barreras muy concretas para acceder a ella. La falta de disponibilidad nocturna, el miedo a ser juzgados, la sensación de “cargar” a familiares o profesionales, o experiencias previas negativas con el sistema sanitario empujan a muchas personas a buscar una respuesta inmediata, anónima y siempre accesible. En ese contexto, la IA funciona como una “línea de vida nocturna”, una presencia constante que permite ventilar emociones, ordenar pensamientos y reducir la intensidad del malestar.
Desde el punto de vista clínico, resulta especialmente interesante que los autores interpreten este comportamiento como una forma de conducta de búsqueda de ayuda, y no como evitación. Utilizando el modelo de etapas del cambio de Prochaska y DiClemente, el estudio sugiere que la interacción con chatbots puede situar a la persona en una fase de preparación: no resuelve la crisis, pero puede aumentar la disposición a realizar acciones positivas posteriores, como contactar con un profesional, hablar con un allegado o utilizar estrategias de autorregulación.
Los datos muestran que una proporción significativa de usuarios, tras interactuar con la IA, da algún paso adaptativo: buscar apoyo humano, aplicar técnicas de afrontamiento o, al menos, desescalar la urgencia emocional. Esto refuerza la idea de que, bajo ciertas condiciones, la IA puede desempeñar un papel de reducción de daño dentro de un sistema de atención en salud mental claramente insuficiente para cubrir toda la demanda.
Sin embargo, el propio trabajo insiste en los límites y riesgos. Los expertos entrevistados coinciden en que la conexión humano–humano sigue siendo el factor protector central en una crisis mental. Cuando la IA no incorpora mecanismos claros de escalación o refuerza indirectamente el aislamiento, puede retrasar intervenciones necesarias o fomentar una dependencia problemática. Además, se trata de un estudio basado en testimonios, sin evaluación de resultados clínicos duros, lo que impide extraer conclusiones sobre eficacia terapéutica o seguridad a largo plazo.La principal aportación del artículo no es proponer que los chatbots “traten” crisis mentales, sino redefinir qué sería un uso responsable: sistemas diseñados explícitamente para preparar a la persona para pedir ayuda, reducir la activación emocional y facilitar el tránsito hacia recursos humanos reales.
En este sentido, el riesgo principal no parece ser la existencia de estas tecnologías, sino su despliegue sin criterios clínicos, regulatorios y éticos claros.Para los profesionales de la salud mental, este trabajo invita a una reflexión necesaria: la IA ya está integrada en el ecosistema de ayuda informal, y el reto no es ignorarla o demonizarla, sino comprender cómo interactúa con los procesos de búsqueda de ayuda y cómo puede integrarse, con límites bien definidos, en estrategias de prevención y atención en crisis.
Firmado Marc Moreno Blanco y comité científico psiquiatria.com
Redactado con ayuda de la IA.
? Referencia y licencia
Ajmani, L. H., Ghosh, A., Kaveladze, B., Kim, E., et al. Seeking Late Night Life Lines: Experiences of Conversational AI Use in Mental Health Crisis. Preprint, arXiv:2512.23859, 25 de diciembre de 2025. No revisado por pares.Licencia
Este artículo se comenta y resume con fines informativos y editoriales. El preprint original está disponible en arXiv bajo la licencia indicada por sus autores. No se ha reproducido ni adaptado texto literal del trabajo original.