PUBLICIDAD

Actualidad y Artículos | Inteligencia artificial   Seguir 145   Favorito

Me Gusta   3 3 Comentar  2 2

La regulación de la inteligencia artificial en salud mental ya no puede esperar: Utah marca el camino y el mundo toma nota



0%
Artículo | Fecha de publicación: 30/03/2026
Artículo revisado por nuestra redacción

La regulación de la inteligencia artificial en salud mental ya no puede esperar: Utah marca el camino y el mundo toma nota Cuando una persona en crisis de ansiedad abre su móvil a las tres de la madrugada y elige hablar con un chatbot antes que llamar a un familiar, está tomando una decisión que ningún sistema regulatorio del mundo ha supervisado adecuadamente h...

PUBLICIDAD

Contenido para usuarios registrados
Este contenido es exclusivo para suscriptores.

Crea tu cuenta gratis y léelo completo ahora.

¿Ya estás registrado? Inicia sesión aquí .

Regístrate gratis Iniciar sesión

La regulación de la inteligencia artificial en salud mental ya no puede esperar: Utah marca el camino y el mundo toma nota


Cuando una persona en crisis de ansiedad abre su móvil a las tres de la madrugada y elige hablar con un chatbot antes que llamar a un familiar, está tomando una decisión que ningún sistema regulatorio del mundo ha supervisado adecuadamente hasta ahora. Eso está empezando a cambiar.


En marzo de 2026, el estado de Utah (EE.UU.) se convirtió en el primer territorio del mundo en publicar un análisis regulatorio formal sobre agentes de inteligencia artificial para la salud mental, con impacto directo en la legislación. El trabajo, firmado por Nina de Lacy y Boyd Z. y publicado en npj Digital Medicine, documenta el proceso completo: desde la revisión técnica hasta la redacción de normativa, pasando por las tensiones entre los diferentes actores implicados —desarrolladores tecnológicos, clínicos, aseguradoras y pacientes—, que mostraron visiones radicalmente distintas sobre qué riesgos son aceptables y cuáles no.


Los autores identifican tres conclusiones que cualquier sistema sanitario debería incorporar.


Primera: los chatbots de salud mental ofrecen un soporte accesible y de bajo coste para necesidades de salud mental no cubiertas, pero generan desafíos de política pública complejos que no se resuelven solos con el tiempo.


Segunda: la regulación no puede ser estática, porque los propios modelos de IA evolucionan con una rapidez que supera los ciclos legislativos habituales.


Tercera: sin protocolos de monitorización continua basados en evidencia, cualquier marco regulatorio queda vacío de contenido real.


La iniciativa de Utah no es un caso aislado. Ese mismo mes, un grupo internacional liderado por investigadores de Singapur, entre ellos Ong, Ning y Liu, publicó en la misma revista una perspectiva que eleva la urgencia al plano global. Su argumento central es que los marcos regulatorios actuales —diseñados para dispositivos médicos de hardware o software estático— son estructuralmente inadecuados para la IA generativa y los grandes modelos de lenguaje (LLM). Estos sistemas no son dispositivos fijos: aprenden, se adaptan y generan respuestas que ningún ingeniero ha programado explícitamente. La normativa de la FDA estadounidense o el Reglamento de IA europeo, aunque valiosos, no contemplan de forma suficiente esta naturaleza dinámica.


Los autores proponen una colaboración científica regulatoria internacional, multidisciplinar y con atención explícita a las necesidades de los países de bajos y medianos ingresos, donde la brecha entre demanda de atención en salud mental y disponibilidad de profesionales es especialmente grave, y donde los chatbots de IA podrían ser la única opción de acceso para millones de personas.


El momento es crítico. La Administración de Alimentos y Medicamentos de Estados Unidos (FDA) celebró en 2025 una sesión específica de su Comité Asesor de Salud Digital sobre dispositivos médicos de salud mental habilitados con IA generativa —los llamados «terapeutas de IA»— y el debate sigue abierto. Europa ha pospuesto la aplicación de los requisitos de alto riesgo del Reglamento de IA hasta 2026, pero el reloj corre. Mientras tanto, los usuarios ya están allí, usando herramientas no validadas clínicamente como sustitutos de la atención que no pueden permitirse o a la que no tienen acceso.


Para los profesionales de la salud mental, el mensaje es doble: la regulación no es un asunto solo de políticos y abogados, sino un terreno donde la voz clínica es imprescindible. Y la pregunta que subyace a todos estos textos no es si la IA generativa llegará a la consulta psiquiátrica, sino en qué condiciones lo hará, y quién habrá decidido esas condiciones.


Referencias


1. de Lacy N., Boyd Z. (2026). The doctor is not in, but the chatbot is: Utah's experience regulating mental health AI. npj Digital Medicine, 9, 258. https://doi.org/10.1038/s41746-026-02580-y


2. Ong J.C.L., Ning Y., Liu M. et al. (2026). Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digital Medicine. https://doi.org/10.1038/s41746-026-02552-2


3. Chen Z.S., Schultebraucks K., Wu W. (2026). A cautionary tale for AI and machine learning in psychiatry. Translational Psychiatry, 16, 136. https://doi.org/10.1038/s41398-026-03930-w

Comentarios de los usuarios



No hay ningun comentario, se el primero en comentar
79432

vortioxetina antidepresivos
Publicidad

Próximos cursos

CFC 7,7 créditos

Modelo transteórico del cambio

Inicio: 22/04/2026 |Precio: 80€