Autor: Dr. Deldhy Nicolás Moya-Sánchez
Afiliación: Psiquiatría y Psiquiatría de Enlace, Centro Médico Nacional “20 de Noviembre”, ISSSTE, Ciudad de México, México
Resumen
La inteligencia artificial (IA) se ha integrado de forma acelerada a la práctica en salud mental, particularmente mediante modelos de lenguaje extenso y sistemas de aprendizaje automático capaces de procesar grandes volúmenes de datos clínicos y textuales. Sus aplicaciones incluyen análisis de lenguaje natural, apoyo al diagnóstico, cribado digital, psicoeducación automatizada y generación de documentación clínica. Sin embargo, el uso no supervisado implica riesgos relevantes: alucinaciones generativas, sesgos algorítmicos, dependencia emocional del paciente hacia chatbots y problemas de privacidad y seguridad de datos. Este artículo revisa la evidencia reciente, delimita ámbitos de uso clínicamente aceptables, describe los principales riesgos éticos y propone lineamientos básicos para una implementación responsable en psiquiatría clínica, docencia e investigación.
Introducción
Los modelos de lenguaje extenso (LLM) como GPT, Gemini o modelos abiertos basados en transformadores han permitido automatizar tareas que tradicionalmente requerían tiempo intensivo del clínico: síntesis de literatura, apoyo a la redacción de notas, clasificación de síntomas y generación de materiales psicoeducativos. A diferencia de sistemas expertos tradicionales, estos modelos producen lenguaje natural altamente verosímil y contextual, lo que los vuelve especialmente atractivos para profesionales y pacientes.
Esta misma capacidad de generar respuestas convincentes implica un riesgo: la IA puede equivocarse con seguridad aparente. La IA no diagnostica, no evalúa riesgo suicida y no sustituye el juicio clínico. Su valor radica en apoyar, no en reemplazar, al profesional de la salud mental.
Panorama actual de la evidencia
IA para diagnóstico asistido y análisis de lenguaje
La literatura muestra que la IA puede identificar patrones lingüísticos y acústicos asociados a depresión, psicosis o riesgo suicida. Los modelos de procesamiento de lenguaje natural alcanzan sensibilidades y especificidades moderadas para la detección de depresión y riesgo suicida al analizar voz, texto y redes sociales, aunque con heterogeneidad metodológica significativa 1,2.
En psicosis, el análisis automatizado de incoherencia semántica y desorganización del discurso ha mostrado capacidad para predecir transición a psicosis en poblaciones de alto riesgo 3,4. No obstante, estos modelos se han validado sobre todo en muestras pequeñas y entornos controlados, por lo que no pueden considerarse sustitutos de la entrevista clínica estructurada.
IA en intervenciones psicológicas y chatbots terapéuticos
Programas digitales basados en terapia cognitivo-conductual (TCC), algunos con componentes de IA, han demostrado eficacia comparable a la TCC en línea tradicional para depresión y ansiedad leve a moderada 5. Chatbots como Woebot han mostrado reducción de síntomas depresivos a corto plazo en adultos jóvenes 6. Sin embargo, estos sistemas fueron diseñados como intervenciones complementarias, no como reemplazo de la psicoterapia presencial, y no están indicados para crisis, psicosis o alto riesgo suicida.
IA en triage, monitoreo y predicción
La combinación de datos pasivos de smartphones (sueño, actividad, patrones de uso, geolocalización) con modelos de aprendizaje automático ha permitido predecir recaídas en trastornos afectivos y esquizofrenia 7. Estas herramientas son especialmente prometedoras para psiquiatría de enlace y hospitales generales, donde la carga asistencial alta dificulta el seguimiento estrecho de todos los pacientes.
Beneficios clínicos potenciales de la IA
- Accesibilidad y triage digital: cribado inicial, psicoeducación básica y seguimiento remoto en contextos con escasez de especialistas.
- Eficiencia clínica: reducción del tiempo de documentación y apoyo en síntesis de literatura, lo que permite dedicar más tiempo a la relación terapéutica.
- Monitorización continua: datos pasivos que ayudan a detectar descompensaciones tempranas en trastornos crónicos.
- Docencia y formación: generación de casos clínicos, resúmenes y materiales educativos basados en guías de práctica clínica.
- Optimización administrativa: procesamiento de grandes volúmenes de información institucional (censos, reportes, flujos de pacientes).
Riesgos y limitaciones
Alucinaciones generativas
Los LLM pueden generar respuestas falsas con apariencia de alta confianza. Este fenómeno, conocido como “alucinación”, está ampliamente descrito en el campo de la IA generativa 8. En salud mental, esto puede traducirse en diagnósticos inventados, recomendaciones terapéuticas sin sustento o narrativas clínicas que nunca ocurrieron. Sin supervisión, el clínico o el paciente podrían interpretar estas salidas como verdades.
Sesgos algorítmicos
Los modelos entrenados con datos no representativos pueden sobreestimar o subestimar síntomas en ciertos grupos, reforzar estereotipos o contribuir a inequidades en el acceso al tratamiento 1,9. La falta de transparencia sobre los datos de entrenamiento dificulta la corrección de estos sesgos.
Dependencia emocional y sustitución indebida
Se han descrito formas de dependencia hacia chatbots, especialmente en personas con soledad o elevada vulnerabilidad emocional 10. Existe el riesgo de que el paciente sustituya la relación terapéutica humana por una interacción con un modelo diseñado para mantener la conversación, no para contener crisis complejas.
Privacidad y seguridad de datos
La información psiquiátrica es particularmente sensible. El uso de plataformas sin marcos de protección adecuados puede violar normativas de privacidad y exponer historias clínicas, notas y datos identificables. Es indispensable distinguir entre herramientas institucionales, bajo dominios seguros, y servicios abiertos al público sin garantías de resguardo.
Deshumanización y pérdida de juicio clínico
El riesgo no es que la IA reemplace al psiquiatra, sino que el profesional delegue su juicio al modelo y limite el contacto humano al mínimo necesario. La sobreconfianza en la IA puede erosionar habilidades clínicas básicas si se utiliza como “oráculo” en lugar de herramienta de apoyo.
Lineamientos para un uso ético y seguro
- Supervisión humana obligatoria: toda salida de IA debe ser revisada, corregida y firmada por el clínico responsable.
- Transparencia con el paciente: informar que la IA es un apoyo, no un sustituto, y explicar sus limitaciones.
- Uso de entornos institucionales: priorizar herramientas integradas a la infraestructura del sistema de salud con acuerdos de protección de datos.
- Políticas claras de uso: definir qué se puede y qué no se puede hacer con IA en la práctica clínica, la docencia y la investigación.
- Capacitación continua: formar a personal clínico y administrativo en fundamentos de IA, riesgos, sesgos y bioética.
- Evitar el copiado-pegado automático: utilizar la IA como borrador o apoyo, nunca como nota definitiva sin revisión.
- Minimización de datos: compartir con la herramienta solo la información estrictamente necesaria, evitando identificadores cuando sea posible.
Conclusiones
La IA representa una herramienta potente para apoyar la psiquiatría contemporánea, especialmente en contextos de alta demanda y limitación de recursos humanos. Puede mejorar la eficiencia, ampliar la accesibilidad y apoyar la psicoeducación, siempre que se use bajo supervisión y con criterios éticos claros. La IA no sustituirá al psiquiatra, pero sí puede desplazar a quien no se actualice y no aprenda a integrarla de forma crítica y responsable. El desafío para la comunidad psiquiátrica es liderar esta integración, asegurando que la tecnología esté al servicio de la relación terapéutica, y no al revés.
Referencias
- Shatte ABR, Hutchinson DM, Teague SJ. Machine learning in mental health: a systematic review of the literature. Psychol Med. 2019;49(9):1426–1448.
- Low DM, Rumker L, Torous J, et al. Natural language processing reveals vulnerable mental health support groups and predicts mental health emergencies. Lancet Digit Health. 2020;2(10):e539–e548.
- Bedi G, Carrillo F, Cecchi GA, et al. Automated analysis of free speech predicts psychosis onset in high-risk youths. NPJ Schizophr. 2015;1:15030.
- Corcoran CM, Carrillo F, Fernández-Slezak D, et al. Prediction of psychosis onset using linguistic biomarkers. World Psychiatry. 2018;17(1):67–75.
- Karyotaki E, Efthimiou O, Miguel C, et al. Internet-based cognitive behavioral therapy for depression: a systematic review and individual patient data network meta-analysis. Psychol Med. 2021;51(11):1830–1840.
- Fitzpatrick KK, Darcy A, Vierhile M. Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): a randomized controlled trial. JMIR Ment Health. 2017;4(2):e19.
- Torous J, Firth J, Müller E, et al. The digital phenotype and psychiatry: a brief review. World Psychiatry. 2021;20(3):286–304.
- Ji Z, Lee N, Frieske R, et al. Survey of hallucination in natural language generation. ACM Comput Surv. 2023;55(12):248.
- Mehrabi N, Morstatter F, Saxena N, et al. A survey on bias and fairness in machine learning. ACM Comput Surv. 2021;54(6):115.
- Williams H, et al. Ethical challenges of AI chatbots in mental health care: a narrative review. JMIR. 2023;25:e47123.
