PUBLICIDAD

   Diccionario médico, definiciones y términos de psiquiatría

Glosario de términos psicopatológicos e históricos psiquiátricos

Autores: Ildefonso Gómez-Feria Prieto, Elieser López, Pedro Moreno Gea y colaboradores


FILTRAR POR


A B C D E F G H I J K L M N O P Q R S T Ú V W X Y Z

Biomarcador digital

Inteligencia Artificial

 Indicador medible objetivamente mediante tecnología digital (*smartphones*, *wearables*) que refleja procesos biológicos, patológicos o respuestas a intervenciones terapéuticas.
Ejemplo clínico. Variabilidad de la frecuencia cardíaca (HRV) me- dida por *smartwatch* detecta incremento de ansiedad 48 horas antes de crisis de pánico, permitiendo intervención temprana con técnicas de relajación.
Precaución. Requiere validación clínica rigurosa; muchos biomar- cadores prometedores no replican en estudios independientes.
Relevancia para la práctica. Permite monitorización continua y objetiva imposible con evaluaciones tradicionales periódicas.


Explicabilidad (XAI)

Inteligencia Artificial

Capacidad de un sistema de IA para hacer comprensibles sus decisiones y razonamiento a usuarios humanos mediante visualizaciones, reglas o narrativas.
Ejemplo clínico. Sistema que recomienda clozapina muestra:
«Recomendación basada en: 1\) Fallo de 3 antipsicóticos previos (40 % peso); 2\) Ausencia de neutropenia (30 %) y 3\) Síntomas negativos prominentes (30 %)».
Precaución. Mayor explicabilidad puede reducir precisión; balan- ce necesario según contexto.
Relevancia para la práctica: Fundamental para confianza clínica, consentimiento informado y cumplimiento regulatorio.
Concepto clave: «Explicabilidad en salud mental». La explicabilidad en psiquiatría tiene dimensiones únicas: debe ser compren- sible no solo para el clínico sino potencialmente para pacientes con alteraciones cognitivas o insight limitado. Además, las expli- caciones deben evitar reforzar estigmas o generar desesperanza terapéutica.


Actigrafía

Inteligencia Artificial

Técnica no invasiva que utiliza dispositivos tipo reloj con acelerómetros para registrar patrones de movimiento y ac- tividad durante días o semanas, proporcionando datos objetivos sobre ritmos circadianos y calidad del sueño.
Ejemplo clínico. Paciente con trastorno bipolar usa actígrafo du- rante 2 semanas. Los datos revelan reducción progresiva del sueño (de 7 a 3 horas) precediendo un episodio maníaco, permi- tiendo intervención preventiva.
Precaución. Puede interpretar inmovilidad prolongada como sue- ño (falsos positivos en pacientes con insomnio que permanecen quietos).
Relevancia para la práctica. Herramienta objetiva esencial para evaluar trastornos del sueño y detectar cambios tempranos en trastorno bipolar, TDAH y demencia.


Ajuste fino (Fine-tuning)

Inteligencia Artificial

 Proceso de especializar un modelo de IA preentrena- do mediante entrenamiento adicional con datos específicos del dominio, permitiendo adaptación a tareas concretas sin empe- zar desde cero.
Ejemplo clínico. Hospital adapta GPT-4 con 5.000 notas psiquiá- tricas propias para detectar ideación suicida con vocabulario y expresiones locales, mejorando precisión del 70 % al 92 %.
Precaución. Requiere suficientes datos de calidad; el ajuste fino con datos sesgados amplifica los sesgos.
Relevancia para la práctica. Permite personalizar herramien- tas genéricas a las necesidades específicas de tu servicio o población.


Algoritmo

Inteligencia Artificial

Conjunto estructurado de instrucciones matemáticas y reglas lógicas que procesan datos de entrada para producir re- sultados específicos, constituyendo el núcleo funcional de cual- quier sistema de IA.
Ejemplo clínico. Algoritmo de triaje en urgencias psiquiátricas que analiza 15 variables (síntomas, historia, medicación) y cla- sifica pacientes en tres niveles de prioridad con 85 % de concor- dancia con psiquiatras expertos.
Precaución. Los algoritmos reflejan los sesgos presentes en sus datos de entrenamiento.
Relevancia para la práctica. Base de todas las herramientas de apoyo a la decisión clínica; entender sus limitaciones es crucial para uso seguro.


Alucinación (en IA)

Inteligencia Artificial

Fenómeno donde los modelos de lenguaje generan in- formación falsa pero plausible, inventando hechos, referencias o datos que no existen en la realidad.
Ejemplo clínico. ChatGPT afirma que «el estudio de Johnson (2023) demostró que la combinación de litio y ketamina es segu- ra», cuando tal estudio nunca existió.
Precaución. Especialmente peligroso en decisiones clínicas; siempre verificar información crítica, especialmente dosis y contraindicaciones.
Relevancia para la práctica. Principal riesgo de usar IA generativa sin supervisión; puede llevar a errores médicos graves.
Concepto clave: alucinación en IA. Las alucinaciones de IA son el equivalente a la confabulación en neuropsicología: el sistema
«rellena» *gaps* de información con contenido plausible pero fal- so. A diferencia de un error simple, la alucinación se presenta con aparente certeza y coherencia, haciéndola especialmente peligrosa en contextos clínicos donde la precisión es vital.


Aprendizaje automático ( machine learning)

Inteligencia Artificial

El aprendizaje automático (machine learning) es una rama de la inteligencia artificial que permite a los ordenadores identificar patrones en grandes volúmenes de datos y hacer predicciones o clasificaciones sin ser programados explícitamente para cada tarea.

En el contexto de la psiquiatría, el aprendizaje automático puede utilizarse para:

- Detectar señales tempranas de trastornos mentales a partir de datos clínicos, genéticos o conductuales.

- Predecir respuestas a tratamientos psicofarmacológicos o psicoterapéuticos.

- Agrupar pacientes en subtipos más precisos que los definidos por los manuales diagnósticos tradicionales (p. ej., DSM o CIE).

- Analizar lenguaje natural, voz o actividad digital para evaluar el estado emocional o cognitivo del paciente.

Lo importante no es que el sistema "sepa" en sentido humano, sino que aprende de ejemplos anteriores y mejora su desempeño a medida que se expone a más datos.

Analogía clínica útil: Así como un residente en formación mejora su juicio clínico al ver cientos de casos y reconocer patrones sutiles, un modelo de aprendizaje automático hace lo mismo, pero a gran escala y sin fatiga.


Aprendizaje Profundo ( deep learning)

Inteligencia Artificial

El aprendizaje profundo es un tipo de aprendizaje automático (machine learning) que utiliza redes neuronales artificiales con múltiples capas ("profundas") para aprender patrones complejos en grandes cantidades de datos.

A diferencia de los modelos tradicionales que necesitan que el profesional defina manualmente las variables importantes, en el deep learning la red aprende sola qué características son relevantes, a partir de los datos, sin necesidad de instrucciones explícitas.

Aplicaciones en Psiquiatría:

- Análisis automático de voz, texto o expresión facial para detectar síntomas depresivos, ansiosos o psicóticos. Predicción de riesgo suicida a partir de historiales médicos, lenguaje escrito o actividad digital.

- Análisis de neuroimágenes para encontrar patrones asociados a trastornos del neurodesarrollo o demencias.

-Procesamiento de lenguaje natural en asistentes clínicos de IA.

Analogía clínica: El aprendizaje profundo funciona como un psiquiatra con experiencia que, tras miles de casos, ha desarrollado una intuición precisa sobre qué observar... pero que no puede siempre explicar por qué lo sabe. La diferencia es que el modelo lo hace con cálculos matemáticos, no con intuición humana.


Bosques aleatorios (Random Forest)

Inteligencia Artificial

 Técnica de aprendizaje automático que combina múl- tiples árboles de decisión, donde cada árbol «vota» y la predic- ción final es el consenso mayoritario.
Ejemplo clínico. Modelo que analiza 50 variables (demográficas, clínicas, genéticas) para predecir respuesta a antidepresivos: identificar que pacientes con insomnio inicial \+ anhedonia se- vera \+ variante COMT responden mejor a bupropión que a ISRS. Precaución. Aunque más interpretable que redes neuronales,
puede ser complejo con muchas variables.
Relevancia para la práctica. Excelente balance entre precisión e interpretabilidad para apoyo en decisiones terapéuticas complejas.


Caja negra (Black Box)

Inteligencia Artificial

Sistema de IA cuyo proceso interno de toma de deci- siones es opaco e incomprensible para usuarios humanos, ge- nerando resultados sin explicación clara del razonamiento.
Ejemplo clínico. Red neuronal profunda predice riesgo suicida con 90 % de precisión, pero no puede explicar por qué clasifica a un paciente específico como alto riesgo, dificultando la inter- vención dirigida.
Precaución. Problemático éticamente cuando afecta decisiones clínicas importantes; puede generar desconfianza en pacientes y profesionales.
Relevancia para la práctica. Principal barrera para adopción de IA compleja en psiquiatría; preferir modelos interpretables cuando sea posible.
Concepto clave: «Problema de la caja negra». En medicina, la ex- plicabilidad no es solo deseable sino frecuentemente obligato- ria. Un psiquiatra debe poder justificar decisiones ante pacien- tes, familiares y tribunales. Los modelos «caja negra» crean un dilema: ¿aceptamos mayor precisión a costa de no entender el porqué? La tendencia actual favorece la «IA explicable» (XAI) que balancea rendimiento con interpretabilidad.


Chatbot terapéutico

Inteligencia Artificial

 Sistema conversacional automatizado diseñado para proporcionar apoyo psicológico, intervenciones estructuradas o psicoeducación mediante interacción en lenguaje natural.
Ejemplo clínico. Paciente con ansiedad leve usa Wysa entre se- siones para practicar técnicas de respiración y reestructuración cognitiva, reportando 30 % reducción en escalas de ansiedad.
Precaución. No sustituye terapia humana; inadecuado para pato- logía severa o crisis.
Relevancia para la práctica. Herramienta complementaria útil para aumentar accesibilidad y mantener engagement terapéuti- co entre sesiones.


Clustering (Agrupamiento)

Inteligencia Artificial

Técnica que identifica grupos naturales en datos sin categorías predefinidas, revelando patrones ocultos basados en similitudes multidimensionales.
Ejemplo clínico. Análisis de 10.000 pacientes con depresión iden- tifica 3 subgrupos no reconocidos previamente: «ansioso-insom- ne» (responde a mirtazapina), «anérgico-anhedónico» (responde a bupropión), «rumiativo-melancólico» (responde a TCC+ISRS).
Precaución. Los clústeres pueden no corresponder a categorías clínicamente significativas.
Relevancia para la práctica. Potencial para medicina personaliza- da y revisión de taxonomías diagnósticas tradicionales.


Datos sintéticos

Inteligencia Artificial

 Información generada artificialmente que mantiene propiedades estadísticas de datos reales, pero sin contener in- formación de pacientes reales.
Ejemplo clínico. Hospital genera 10.000 historias sintéticas de pri- meros episodios psicóticos para entrenar modelo de predicción sin comprometer privacidad de pacientes reales.
Precaución. Debe validarse que los datos sintéticos preservan re- laciones clínicamente relevantes.
Relevancia para la práctica. Solución al dilema privacidad vs. ne- cesidad de grandes datasets para entrenar IA.


Fenotipado digital

Inteligencia Artificial

Cuantificación momento a momento del fenotipo humano mediante datos recolectados continuamente de dispositivos digitales personales.
Ejemplo clínico. Smartphone detecta que paciente con esquizofrenia reduce movilidad, llamadas y coherencia en mensajes de texto 5 días antes de recaída psicótica, activando intervención temprana.
Precaución. Balance delicado entre monitorización útil e invasión de privacidad.
Relevancia para la práctica. Permite detección de cambios sutiles imposibles de capturar en evaluaciones mensuales tradicionales.


Gemelo digital

Inteligencia Artificial

Representación virtual dinámica de un paciente que integra todos sus datos (clínicos, genéticos, comportamentales) para simular respuestas a diferentes intervenciones.
Ejemplo clínico. Gemelo digital de paciente con depresión resistente simula respuesta a 5 estrategias terapéuticas, prediciendo mejor resultado con TEC \+ venlafaxina, evitando meses de ensayo-error.
Precaución. Aún experimental; requiere validación extensiva antes de decisiones clínicas.
Relevancia para la práctica. Futuro de la medicina personalizada; permitirá «ensayar» tratamientos virtualmente antes de aplicarlos.


GPT (Generative Pre-trained Transformer)

Inteligencia Artificial

GPT (Generative Pre-trained Transformer)
Arquitectura de red neuronal que genera texto coherente y contextualmente apropiado, base de sistemas como Chat GPT. Ejemplo clínico. GPT-4 genera resumen de historia clínica de 50 páginas en 2 minutos, destacando elementos clave para consul
ta actual.
Precaución. Propenso a alucinaciones; nunca usar para decisiones clínicas sin supervisión.
Relevancia para la práctica. Revoluciona documentación y comunicación clínica cuando se usa apropiadamente.


LLM (Large Language Model – Modelo de Lenguaje de Gran Tamaño)

Inteligencia Artificial

Un LLM es un tipo avanzado de inteligencia artificial diseñado para comprender, generar y analizar lenguaje humano, entrenado con enormes cantidades de texto (libros, artículos, diálogos, etc.). Aprenden patrones del lenguaje y pueden responder preguntas, resumir textos, redactar documentos o mantener conversaciones complejas.

Aplicaciones en Psiquiatría:

- Redacción automática de informes clínicos, historias o cartas médicas.

- Traducción de lenguaje técnico a un formato comprensible para el paciente.

- Asistentes conversacionales terapéuticos (chatbots con fines psicoeducativos o de apoyo).

- Síntesis de literatura científica para mantener al profesional actualizado.

- Generación de materiales personalizados para cada paciente (psicoeducación, recomendaciones post-sesión).

Analogía clínica: Un LLM puede ayudarte a redactar, explicar o buscar información... pero necesita tu criterio clínico para saber qué es útil, ético y seguro.


LLM (Modelo de lenguaje de gran escala)

Inteligencia Artificial

Modelos de IA entrenados con billones de palabras que comprenden y generan lenguaje humano con fluidez casi humana, representando el estado del arte en procesamiento de lenguaje natural. Son redes neuronales de gran escala, entrenadas con cantidades masivas de texto, capaces de predecir y generar lenguaje con coherencia.
Ejemplo clínico. LLM analiza 5 años de notas de evolución detectando deterioro gradual en organización del pensamiento que precedió primer episodio psicótico no identificado por clínicos en tiempo real.
Precaución. Puede perpetuar sesgos del lenguaje médico histórico. Relevancia para la práctica. Herramienta más versátil para procesar información clínica no estructurada. Una de las herramien
tas más avanzadas actuales para llevar a cabo tareas de PLN.


PLN (Procesamiento de Lenguaje Natural)

Inteligencia Artificial

Es un campo de estudio dentro de la IA y la lingüística computacional que permite que las máquinas comprendan, generen y manipulen lenguaje humano de forma útil.
Ejemplo clínico. Sistema PLN analiza transcripciones de terapia identificando marcadores lingüísticos de mejoría: aumento de palabras futuro-orientadas, reducción de absolutismos («siempre», «nunca»), mayor complejidad sintáctica.
Precaución. Sensible a variaciones culturales y dialectales del lenguaje.
Relevancia para la práctica. Esencial para extraer valor de notas clínicas, principal fuente de información en psiquiatría.


Prompt Engineering (Ingeniería de prompt)

Inteligencia Artificial

Arte y ciencia de diseñar instrucciones precisas que optimizan las respuestas de modelos de lenguaje para tareas específicas.
Ejemplo clínico. Prompt optimizado: actúa como psiquiatra senior. Analiza esta nota clínica identificando: 1\) Síntomas de alarma;
2\) Cambios desde última visita y 3\) Adherencia farmacológica. Formato: «bullets concisos» genera resúmenes 3 veces más útiles que prompt genérico.
Precaución. Pequeños cambios en redacción pueden alterar dramáticamente la calidad de respuesta.
Relevancia para la práctica. Habilidad clave para aprovechar IA generativa; la diferencia entre output mediocre y excelente.


Psiquiatria computacional

Inteligencia Artificial

Es un campo que utiliza modelos matemáticos, estadísticas avanzadas e inteligencia artificial para entender y simular procesos mentales y cerebrales implicados en los trastornos psiquiátricos.

Objetivo:

- Traducir síntomas clínicos en variables cuantificables.

- Modelar el pensamiento, la emoción o el aprendizaje en términos computacionales.

- Conectar niveles de análisis: genético, cerebral, conductual, subjetivo.

Ejemplo práctico:
Usar un modelo bayesiano para explicar cómo un paciente con paranoia actualiza mal sus creencias frente a evidencias contradictorias.

Aplicación en la práctica:
Aún más en investigación que en clínica, pero abre la puerta a biomarcadores digitales y algoritmos diagnósticos más precisos.


Psiquiatría de precisión

Inteligencia Artificial

Es un enfoque clínico que busca personalizar el diagnóstico y tratamiento psiquiátrico según las características únicas de cada paciente: biológicas, genéticas, ambientales y digitales, ofreciendo la medicación precisa, en la dosis correcta y en el momento preciso, con la promesa de la individualización de la atención clínica para pacientes con trastornos psiquiátricos.

Objetivo:

- Abandonar el modelo único para todos.

- Usar datos objetivos y subjetivos para predecir qué tratamiento funciona mejor en quién.

- Integrar genómica, neuroimagen, historia clínica y datos digitales.

Ejemplo práctico:
Utilizar una combinación de historia clínica, test genético y patrón de respuesta a tratamientos anteriores para decidir si un paciente con depresión debe recibir ISRS o psicoterapia.

Aplicación en la práctica:
En expansión, especialmente en grandes centros y en combinación con IA.


Psiquiatría Digital

Inteligencia Artificial

Es el uso de tecnologías digitales (apps, móviles, sensores, IA, realidad virtual) para evaluar, monitorizar o intervenir en la salud mental de forma remota o asistida.

Objetivo:

- Ampliar el acceso a cuidados.

- Facilitar el seguimiento entre sesiones.

- Recoger datos en tiempo real del paciente.

Ejemplo práctico:
Una app que registra el sueño, el habla o la actividad física y detecta signos de recaída en trastorno bipolar.

Aplicación en la práctica:
Muy extendida en consulta privada y plataformas online.

Incluye chatbots, telepsiquiatría, diarios digitales y terapia asistida por IA.


RAG (Retrieval-Augmented Generation)

Inteligencia Artificial

Técnica que mejora la precisión de modelos generativos anclándolos a documentos específicos recuperados de una base de conocimiento.
Ejemplo clínico. Chatbot hospitalario usa RAG para responder consultas sobre protocolos: en lugar de «alucinar», recupera y cita el protocolo exacto de manejo de agitación psicomotriz del hospital. Precaución. Tan bueno como la calidad de la base de conocimien
to subyacente.
Relevancia para la práctica. Reduce drásticamente alucinaciones, haciendo IA generativa más segura para uso clínico.


Redes neuronales artificiales

Inteligencia Artificial

Las redes neuronales artificiales son sistemas informáticos inspirados en el funcionamiento del cerebro humano, diseñados para reconocer patrones complejos y aprender a partir de datos.

Están formadas por unidades llamadas "nodos" o "neuronas artificiales", organizadas en capas, que procesan información de forma conectada.

Cada nodo recibe información, la transforma mediante una función matemática, y la transmite a otros nodos, simulando una red de comunicación.

En salud mental, pueden aplicarse para:

- Identificar biomarcadores cerebrales en neuroimagen.

- Analizar voz, texto o conducta digital para detectar depresión, psicosis o suicidabilidad.

- Modelar procesos cognitivos y afectivos desde una perspectiva computacional.

Comparación entre redes neuronales biológicas y artificiales

Las redes neuronales biológicas, como las del cerebro humano, están formadas por neuronas que se comunican entre sí mediante impulsos eléctricos y neurotransmisores. Su unidad básica es la neurona, y el aprendizaje ocurre gracias a la plasticidad sináptica, es decir, la capacidad de las conexiones neuronales para fortalecerse o debilitarse en función de la experiencia, la emoción y el contexto vital.

En cambio, las redes neuronales artificiales están compuestas por nodos o “neuronas artificiales”, representadas por funciones matemáticas. Estas redes procesan números, y el aprendizaje se produce ajustando los llamados "pesos sinápticos", siguiendo algoritmos como el de retropropagación del error (backpropagation). No hay emociones, corporalidad ni subjetividad en este proceso: la red simplemente busca minimizar el error en sus predicciones.

Otra diferencia importante es la velocidad. Las redes naturales funcionan a velocidades biológicas —lentas pero altamente eficientes en paralelo— mientras que las artificiales pueden procesar millones de operaciones por segundo, aunque sin la capacidad de comprender el contexto o los significados.

Además, las redes naturales son robustas y adaptables: pueden funcionar incluso con lesiones o con información incompleta. Las redes artificiales, en cambio, son más sensibles a datos ruidosos o fuera de lo que han aprendido: si no han “visto” un tipo de patrón, pueden fallar estrepitosamente.

Por último, el objetivo de una red natural es la adaptación al entorno, la supervivencia y la construcción de significado en interacción con otros. La red artificial, por el contrario, no tiene metas propias: solo intenta resolver una tarea matemática definida por quien la diseñó.

Las redes neuronales artificiales no “piensan” ni “sienten”. Aprenden de miles de historias clínicas, sin contacto humano, pero con gran memoria y cálculo rápido. Necesitan supervisión y contexto clínico para ser útiles.


Total registros: 32
(Visualizando del 0 al 25)

Publicidad

Próximos cursos


El Apego en Psicoterapia

Inicio: 13/05/2026 |Precio: 130€