Durante los últimos meses hemos discutido sobre la IA generativa en salud mental como si la cuestión fuera binaria: ¿ayuda o perjudica a los jóvenes? Tres estudios publicados en las últimas semanas sugieren que esa pregunta está mal planteada. La pregunta correcta empieza a ser: ¿para qué la usan?, ¿con qué intención emocional?, ¿en qué ecosistema de apoyo? Y las respuestas están dejando de ser intuitivas para convertirse en datos cerebrales y predictivos.
Primer hallazgo: el motivo de uso deja huella en el cerebro
Un estudio de neuroimagen difundido como preprint, realizado con 222 jóvenes, distingue dos patrones radicalmente distintos según la finalidad del uso de IA generativa. El «uso funcional» —recurrir a la IA para tareas académicas, búsqueda de información o resolución de problemas— se asoció con mejor rendimiento académico y mayor volumen en la corteza prefrontal, una región implicada en la cognición ejecutiva, la planificación y la regulación. El «uso socioemocional» —acudir a la IA para compañía, apoyo afectivo o validación emocional— se asoció en cambio con peor salud mental, mayor sintomatología depresiva y de ansiedad social, y menor volumen en la amígdala, estructura clave del procesamiento emocional. La conclusión metodológica es importante: los efectos de la IA sobre el cerebro y la salud mental no parecen depender del modelo, ni de la cantidad de horas, sino del vínculo funcional o relacional que el usuario establece con la herramienta. Conviene insistir en la cautela —se trata de un preprint y los hallazgos son correlacionales—, pero la dirección del efecto es coherente con la literatura previa sobre uso problemático de redes sociales.
Segundo hallazgo: el problema no es solo individual, es de infraestructura
Un debate publicado en Child and Adolescent Mental Health por Julia Dray reformula la narrativa generacional dominante. La autora cuestiona el relato del «caos» —según el cual los adolescentes de hoy serían menos resilientes— y plantea que el problema real es otro: las infraestructuras de apoyo no han evolucionado al ritmo del entorno digital y de los entornos potenciados por IA. Los jóvenes están permanentemente conectados —en el colegio, en casa, en la calle— a sistemas algorítmicamente amplificados que generan presiones nuevas, mientras los servicios sanitarios, escolares y familiares siguen operando con marcos diseñados para un mundo predigital. Dray propone una agenda de modernización que incluye seguridad por diseño en plataformas, entornos digitales inclusivos para perfiles neurodivergentes, ampliación de la capacidad asistencial y, especialmente, integración ética de herramientas de IA en salud mental que mitiguen brechas asistenciales sin sustituir el cuidado humano. La idea de fondo es potente para nuestro debate clínico: si la única forma de «ayudar» que un adolescente encuentra a las tres de la madrugada es un chatbot, el problema no es solo del chatbot, sino del sistema que ha dejado vacía esa hora.
Tercer hallazgo: la IA también puede operar en el otro sentido, anticipando el riesgo
El mismo periodo nos deja un trabajo publicado en Acta Psychologica que ilustra el rostro útil de la inteligencia artificial en salud mental adolescente. Combinando machine learning con modelos de ecuaciones estructurales, los autores entrenaron un clasificador (Support Vector Machine) y un modelo de regresión (XGBRegressor) para identificar a los adolescentes con conductas de autolesión no suicida (NSSI). El clasificador alcanzó una precisión del 85,3 % y un AUC de 0,89, con validación cruzada robusta. Tres variables explicaron buena parte del riesgo: autocrítica, dificultades de regulación emocional y autoconciencia pública. La autocrítica predijo NSSI directa e indirectamente, mientras que —dato contraintuitivo— la autoconciencia pública mostró un papel parcialmente protector. La utilidad clínica es evidente: una herramienta de cribado entrenada con estas variables podría ayudar a identificar a adolescentes en riesgo antes de que el episodio ocurra, y orientar intervenciones psicoterapéuticas centradas en la autocrítica y la regulación emocional, dianas con sólido respaldo en TCC y terapias compasivas.
Lectura conjunta
El conjunto de hallazgos dibuja un mapa más realista que el actual debate maniqueo. Por un lado, hay evidencia neurobiológica preliminar de que el uso socioemocional de la IA generativa por parte de jóvenes —el chatbot como sustituto relacional— se asocia con correlatos cerebrales y clínicos preocupantes, especialmente en quienes ya tienen depresión, ansiedad social o vínculos familiares y de pares precarios. Por otro lado, la misma tecnología, aplicada como sistema de apoyo a la decisión clínica, puede mejorar la detección de adolescentes en riesgo de autolesión con métricas de rendimiento clínicamente relevantes. Y entremedias, una llamada de atención: la responsabilidad no es solo del adolescente, ni de la familia, ni del clínico aislado; es del sistema entero, que debe modernizar sus infraestructuras de cuidado.
Implicaciones prácticas para psiquiatras y psicólogos clínicos
- Explorar el uso de IA en la entrevista habitual con adolescentes, diferenciando uso funcional de uso socioemocional. Preguntar no solo «¿usas chatbots?», sino «¿para qué los usas?», «¿qué te aportan que no te aporten otras personas?».
- Considerar el uso socioemocional intensivo de IA como un posible marcador clínico de aislamiento, depresión subclínica o ansiedad social no expresada.
- Reforzar la red de apoyo humano —familia, pares, profesionales accesibles— en lugar de demonizar la herramienta. La IA no compite con la psicoterapia bien hecha; compite con la soledad de las tres de la madrugada.
- Mantener una mirada doble sobre la IA: como factor de riesgo en su uso relacional y como herramienta de cribado, evaluación y apoyo a la decisión clínica.
La paradoja que dejan estos trabajos es elegante y útil: la misma tecnología que en manos del adolescente solitario puede asociarse con menor volumen amigdalino y peor salud mental, en manos del clínico puede convertirse en un sistema con AUC de 0,89 para detectar a ese mismo adolescente antes de que se haga daño. La diferencia, una vez más, no está en la IA. Está en el diseño humano del entorno que decide qué hace la IA, para quién y bajo qué supervisión.
Referencias
- Dray J. Debate: Young people are living in unprecedented times—too much chaos or too little resilience? Beyond the 'chaos' storyline—Modernising resilience frameworks and mental health care for children and young people in a neurodiversity inclusive digital world. Child and Adolescent Mental Health. 2026;31(2):143-145. DOI: 10.1111/camh.70090 · PMID: 41850706.
- Huo X, Liu X, Wang Y, Yang L, Huang Y, Wang Y, Zheng H, Zhao X. The prediction and impact of self-criticism on non-suicidal self-injury in adolescents: A study based on machine learning. Acta Psychologica. 2026;265:106655. DOI: 10.1016/j.actpsy.2026.106655 · PMID: 41930525.
- Brain and mental health profiles by purpose of generative AI use in young adults. arXiv preprint, abril de 2026. https://browse-export.arxiv.org/abs/2604.08594