Hay un sesgo incómodo en cómo hemos estado discutiendo los riesgos psiquiátricos de la inteligencia artificial. Llevamos dos años hablando de contenido: qué dicen los modelos, qué responden ante ideación suicida, qué validan en un paciente con pensamiento delirante. Pero lo que está cambiando ahora no es el contenido. Es el canal, el público y el contexto. Y las tres novedades de esta semana van exactamente por ahí.
La voz no es un "texto con sonido": es otro sistema de procesamiento
El editorial más relevante viene firmado por Giovanni Briganti en STAT, con base en un trabajo previo con Søren Østergaard —el psiquiatra danés que acuñó en 2023 el término chatbot psychosis—. El argumento es elegante y, desde la neurobiología, difícil de rebatir: la voz no es equivalente al texto. Cuando un paciente lee una respuesta en pantalla hay una distancia cognitiva intrínseca —procesa símbolos, puede releer, puede pausar, puede mandar el chatbot a freír espárragos—. Cuando la respuesta le llega por voz, con prosodia humana, pausas calculadas y empatía simulada, el cerebro la procesa por los mismos circuitos que procesan la voz materna en la infancia. No hay distancia. Hay vínculo.
El dato que acompaña al argumento es, francamente, perturbador. Según las propias cifras de OpenAI, unos 800 millones de personas interactúan cada semana con ChatGPT. Un 0,07% muestra signos compatibles con psicosis o manía durante la conversación; un 0,15%, indicadores de planificación o intencionalidad suicida. Si son correctas, estamos hablando de cientos de miles de personas en estado de crisis psicológica serio manteniendo conversaciones con un chatbot cada semana. La mayoría de esa exposición ocurre hoy por texto. El giro hacia voz —OpenAI con dispositivo dedicado, Meta con gafas inteligentes, Apple con extensión de AirPods— va a multiplicar el contacto emocional sin que los mecanismos de seguridad específicos para esa modalidad existan siquiera en fase de diseño regulatorio. Conviene leerlo como lo que es: una alerta clínica, no un debate tecnológico.
Cerebros en desarrollo: el principio de precaución vuelve a ser relevante
En paralelo, el psiquiatra chileno Elías Arab concedió una entrevista en Radio Universidad de Chile que merece atención porque pone el foco en un sector al que hasta ahora le hemos prestado menos análisis: niños y adolescentes. Su preocupación central es coherente con lo que sabemos de plasticidad cerebral: delegar sistemáticamente procesos cognitivos —búsqueda de información, resolución de problemas, regulación emocional— a un modelo de lenguaje durante periodos críticos de maduración de la corteza prefrontal puede afectar la consolidación de circuitos que dependen, precisamente, del esfuerzo cognitivo repetido. Atención sostenida, control inhibitorio, tolerancia a la frustración, pensamiento crítico.
Arab es cauteloso en el plano causal —no hay evidencia longitudinal todavía, lo reconoce explícitamente— pero propone lo que me parece la posición razonable: ausencia de evidencia no es evidencia de ausencia, y cuando el coste potencial es el desarrollo neurocognitivo de una generación, el principio de precaución tiene más peso que la neutralidad epistémica. En castellano clínico: si un fármaco tuviese este perfil de uso masivo, en menores, sin datos de seguridad a medio plazo, no estaríamos debatiendo; lo estaríamos regulando. La pregunta es por qué con la IA aplicamos un estándar distinto.
Google mueve ficha (porque le han empujado)
La tercera pieza es un anuncio corporativo, y conviene leerla con la dosis de escepticismo que un anuncio corporativo merece. El 7 de abril Google publicó un update firmado por Megan Jones Bell, directora clínica de la compañía, con cambios concretos en Gemini: un módulo "Help is available" rediseñado con expertos clínicos, una interfaz de un solo toque para conectar con líneas de crisis cuando el sistema detecta ideación suicida o autolesiva, y 30 millones de dólares destinados a apoyar líneas de ayuda a nivel internacional durante los próximos tres años. También anuncia una colaboración con ReflexAI para formación de personal de organizaciones de apoyo en salud mental.
Lo relevante no es el contenido del anuncio —que es, en términos de impacto clínico neto, modesto y previsible— sino el hecho de que se produzca. Google no hace esto porque se le haya ocurrido; lo hace porque lleva meses acumulando demandas judiciales, como OpenAI, relacionadas con daños psicológicos asociados a sus productos. Es la primera vez que vemos a un proveedor de modelos generales de IA incorporar lenguaje clínico explícito en su documentación de producto y financiación directa a recursos de crisis. El patrón a observar es si se extiende —Anthropic ha tomado un camino paralelo sometiendo Claude a 20 horas de supervisión con psiquiatras reales, como reportó Ars Technica— y, sobre todo, si se convierte en estándar regulatorio exigible o se queda en gesto corporativo voluntario.
Qué hacemos con todo esto en consulta
Tres cosas prácticas que sirven desde mañana mismo.
Primera: cuando pregunte a un paciente si usa chatbots —la recomendación de Saba y Weeks que cubrimos en la pieza anterior—, añada una sub-pregunta sobre modalidad. No es lo mismo teclear con ChatGPT que hablar con Gemini en voz alta mientras conduce. El impacto emocional es distinto y la valoración clínica también. En pacientes con sintomatología psicótica, maníaca o con aislamiento social significativo, el uso por voz es, probablemente, un factor de vigilancia.
Segunda: en consulta infanto-juvenil, incorporar la conversación con las familias sobre el patrón de uso —frecuencia, duración, tipo de tareas delegadas al modelo— tiene ya base clínica suficiente para estar en la exploración rutinaria. No como alarma catastrofista, sino como un factor más de higiene digital, al nivel de pantallas o redes sociales.
Tercera: no dar por hecho que los guardarraíles clínicos de los modelos comerciales protegen al paciente. El módulo "Help is available" de Gemini es útil, pero es reactivo —se activa cuando el modelo detecta una señal, que puede detectar mal— y no sustituye la valoración clínica. La referencia externa al modelo sigue siendo el sistema sanitario humano, con sus tiempos, sus equipos de intervención en crisis y sus códigos de riesgo de suicidio. Confiar la contención de una crisis aguda a un chatbot —aunque tenga interfaz de un solo toque— es seguir delegando lo que no se puede delegar.
El paisaje se está moviendo deprisa. La posición clínica razonable no es ni el tecnooptimismo blando ni el alarmismo reactivo, sino algo más aburrido: documentación rigurosa, vigilancia farmacovigilante aplicada a un producto que no es fármaco, y presión sostenida para que la regulación se mueva al menos a la misma velocidad que el producto. El AI Act europeo y el RGPD nos dan palancas que conviene usar. Lo demás es inercia.
Referencias
- Briganti G, Østergaard SD. Voice-first chatbots will exacerbate AI's mental health threat. STAT News — First Opinion. 16 abril 2026. statnews.com/2026/04/16/voice-chatbots-ai-psychosis-mental-health
Editorial clínico — basado en trabajo publicado en Acta Neuropsychiatrica. ⚠️ Acceso con registro. - Radio Universidad de Chile. Dr. Elías Arab y los riesgos de la IA en la infancia: "Podríamos ver cerebros menos desarrollados en su potencial". Entrevista, 18 abril 2026. radio.uchile.cl/2026/04/18/...
- Jones Bell M. Google's mental health work and support for organizations. The Keyword — Google Blog. 7 abril 2026. blog.google/innovation-and-ai/technology/health/mental-health-updates
- Østergaard SD. Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis? Schizophrenia Bulletin. 2023; 49(6): 1418–1419. DOI: 10.1093/schbul/sbad128 — Licencia CC BY 4.0 ✅ (referencia de contexto histórico)
Marc Moreno. comité editorial psiquiatria.com
Nota editorial sobre licencias: el editorial de STAT, la entrevista de Radio Universidad de Chile y el anuncio corporativo de Google no son artículos de investigación bajo licencia Creative Commons comercial. Se han utilizado aquí con atribución completa y cita mínima a efectos de comentario editorial, sin reproducción de párrafos originales. La única referencia bajo CC BY plena es el editorial fundacional de Østergaard en Schizophrenia Bulletin.
