Tu paciente ya habla con un chatbot de IA sobre su ansiedad. La pregunta es: ¿lo sabes tú?
No es hipotético. Un estudio cualitativo publicado el 2 de abril de 2026 en JMIR Mental Health entrevistó a 17 personas con experiencia vivida de depresión mientras interactuaban con un chatbot basado en GPT-4o llamado "Zenny". No eran pacientes de un ensayo clínico...
Tu paciente ya habla con un chatbot de IA sobre su ansiedad. La pregunta es: ¿lo sabes tú?
No es hipotético. Un estudio cualitativo publicado el 2 de abril de 2026 en JMIR Mental Health entrevistó a 17 personas con experiencia vivida de depresión mientras interactuaban con un chatbot basado en GPT-4o llamado "Zenny". No eran pacientes de un ensayo clínico en un hospital. Eran personas que podrían ser tus pacientes.
Lo que buscaban en ese chatbot es revelador: información accionable ("¿qué hago ahora mismo con esta angustia?"), validación emocional con límites claros ("que me escuche pero que no finja que me entiende del todo"), y personalización sin tener que contar su historia desde cero cada vez. Tres cosas que, si somos honestos, no siempre ofrecemos en una consulta de 30 minutos cada tres semanas.
Los riesgos que ellos mismos identificaron son igualmente concretos: respuestas inexactas sobre medicación o crisis, falta de empatía genuina cuando el estado era muy grave, y —el más serio— respuesta inadecuada ante situaciones de riesgo. No es un riesgo teórico. La misma semana, otra revisión publicada en JMIR Mental Health documentó casos reales de pacientes que desarrollaron síntomas psicóticos o agravaron ideación suicida tras semanas de uso intensivo de chatbots de IA, basándose en análisis de cobertura mediática de 2023 a 2025.
¿Qué significa esto para ti en consulta?
Primero, vale la pena preguntar. "¿Usas alguna aplicación de salud mental o hablas con algún chatbot entre sesiones?" es una pregunta que en 2026 debería estar en tu exploración rutinaria igual que preguntas si toma suplementos o consulta el Dr. Google. No para prohibirlo, sino para saber qué está recibiendo el paciente fuera de tu consulta y si es coherente con lo que estás haciendo dentro.
Segundo, que los pacientes con mayor riesgo son los más vulnerables, precisamente los que más lo usan como sustituto de la atención. El estudio identifica un perfil claro: personas sin acceso fluido a atención profesional, con sintomatología moderada-severa, que usan el chatbot en momentos de crisis nocturna o en fines de semana. Es decir, en los huecos que el sistema no cubre.
Tercero, y esto es lo que más debería importarte como clínico: el chatbot no tiene protocolo de escalada. No sabe cuándo derivar. No tiene acceso a tu historia clínica. No sabe que ese paciente tuvo un intento hace dos años. La integración de estos sistemas en contextos de salud mental requiere, como mínimo, un diseño que incluya detección de crisis y derivación activa. Algunos ya lo tienen; la mayoría, no.
Lo que puedes hacer esta semana es sencillo. Si trabajas con pacientes con trastorno ansioso o depresivo de intensidad moderada, considera hablar con ellos sobre el uso de estas herramientas de manera proactiva. No desde el rechazo —muchos las usan con beneficio real para el manejo del día a día—, sino desde la supervisión clínica. "¿Qué te dice cuando te angustias a las tres de la mañana?" puede ser la pregunta más útil que hagas esta semana.
Autor: Marc Moreno, editor de psiquiatria.com
Referencias:
AI Chatbots for Mental Health Self-Management: Lived Experience–Centered Qualitative Study. JMIR Mental Health, vol. 13, 2 abril 2026. https://mental.jmir.org/2026/1/e78288
Revisión de cobertura mediática sobre riesgos de chatbots LLM en salud mental. JMIR Mental Health, semana 28 mar–3 abr 2026.