¿Puede la Inteligencia Artificial comprender las emociones humanas? Un reto para la psicología clínica
-
Autor/autores: Lucas Navarro
Seguir al autor
Artículo revisado por nuestra redacción
En 2025, la Inteligencia Artificial (IA) está más presente en la práctica psicológica de lo que muchos imaginan. Desde herramientas que analizan expresiones faciales hasta algoritmos que detectan indicadores de depresión en redes sociales, la tecnología ha dado un salto hacia la salud mental. Pero surge una pregunta clave: ¿puede una IA comprender r...
Estás viendo una versión reducida de este contenido.
Para consultar la información completa debes registrarte gratuitamente.
Tan sólo te llevará unos segundos.
Y si ya estás registrado inicia sesión pulsando aquí.
En 2025, la Inteligencia Artificial (IA) está más presente en la práctica psicológica de lo que muchos imaginan. Desde herramientas que analizan expresiones faciales hasta algoritmos que detectan indicadores de depresión en redes sociales, la tecnología ha dado un salto hacia la salud mental. Pero surge una pregunta clave: ¿puede una IA comprender realmente las emociones humanas?
IA y emociones: datos vs. experiencia humana
Los algoritmos más avanzados pueden interpretar patrones de voz, microexpresiones y lenguaje para inferir estados emocionales ( American Psychological Association, 2024 ). Sin embargo, esto no significa “entender” la emoción. La empatía implica contexto, historia personal y conexión humana.
Como se señala en “ Redefiniendo el placer y la educación sexual en el día a día ”, la tecnología debe estar al servicio del bienestar humano , no sustituirlo, una premisa que también aplica a la psicología.
El riesgo del sesgo emocional en IA
Los sistemas de IA aprenden de bases de datos masivos. Si estas contienen sesgos culturales, de género o raciales, la IA puede perpetuarlos:
Un tono firme puede interpretarse erróneamente como “agresivo” por el algoritmo.
Se corre el riesgo de patologizar emociones normales, generando falsos diagnósticos.
Esto plantea un reto ético: ¿cómo garantizar que los algoritmos no refuercen prejuicios bajo apariencia científica?
¿Aliada o amenaza para la relación terapéutica?
Los defensores de la IA argumentan que:
Reducir listas de espera , ofreciendo atención inmediata en crisis.
Previene riesgos suicidas mediante monitoreo digital.
Sin embargo, la alianza terapéutica —pilar del tratamiento psicológico— se basa en confianza y empatía. Surge la duda:
¿Puede un chatbot transmitir comprensión genuina?
¿Cómo impacta al paciente saber que interactúa con un algoritmo?
¿Empatía artificial o simulación?
Proyectos en Affective Computing intentan crear sistemas que respondan con “empatía simulada”. Pero incluso si la IA imita respuestas emocionales, ¿es lo mismo que sentir empatía real?
Para la mayoría de los expertos, la respuesta es no: la tecnología puede complementarse, pero no reemplazar la conexión humana .
Conclusión: Psicología y ética ante un nuevo escenario
La IA ofrece oportunidades para mejorar la accesibilidad y la prevención, pero comprender emociones no se reduce a interpretar datos . La empatía sigue siendo humana. El futuro dependerá de cómo la psicología integre estas herramientas sin perder su esencia relacional.
Referencias bibliográficas
Asociación Americana de Psicología (2024). Inteligencia artificial y salud mental: desafíos y oportunidades éticas . Publicaciones de la APA.
Picard, R. (2019). Computación afectiva: pasado, presente y futuro . Transacciones IEEE sobre Computación afectiva.
McStay, A. (2020). IA emocional: El auge de los medios empáticos . Sage Publications.
Sociedad Internacional para la Investigación de las Emociones (2023). Reconocimiento de emociones en inteligencia artificial: Implicaciones clínicas .
Lanzarote Digital. (2025). Redefiniendo el placer y la educación sexual en el día a día .
Organización Mundial de la Salud (2023). Informe sobre ética y gobernanza de la IA en salud .
