Última actualización web: 15/06/2019

Reconocimiento de las emociones transmitidas por el tacto: estudio observacional de humanos y técnicas de aprendizaje automático

Artículo | Psicología general | 10/10/2018

  • Autor(es): Alicia Heraz y Manfred Clynes
  • Título original: Recognition of Emotions Conveyed by Touch Through Force-Sensitive Screens: Observational Study of Humans and Machine Learning Techniques
  • Fuente: JMIR Ment Health
  • Referencia: VOL 5- Num 3
RESUMEN

Las emociones afectan nuestra salud mental: influyen en nuestra percepción, alteran nuestra fuerza física e interfieren con nuestra razón. Las emociones modulan nuestro rostro, voz y movimientos. Cuando las emociones se expresan a través de la voz o la cara, son difíciles de medir porque las cámaras y los micrófonos no se usan a menudo en la vida real en las mismas condiciones de laboratorio en las que los algoritmos de detección de emociones funcionan bien. Con el uso creciente de teléfonos inteligentes, el hecho de que tocamos nuestros teléfonos, en promedio, miles de veces al día, y que las emociones modulan nuestros movimientos, tenemos la oportunidad de explorar patrones emocionales en toques expresivos pasivos y detectar emociones, lo que nos permite potenciar las aplicaciones de teléfonos inteligentes con inteligencia emocional.
En este estudio, hicimos 2 preguntas. (1) A medida que las emociones modulan los movimientos de nuestros dedos, ¿podrán los humanos reconocer las emociones solo al mirar los toques expresivos pasivos? (2) ¿Podemos enseñar a las máquinas cómo reconocer con precisión las emociones de los toques expresivos pasivos?
Estábamos interesados en 8 emociones: ira, temor, deseo, miedo, odio, pena, risa, amor (y ninguna emoción). Llevamos a cabo 2 experimentos con 2 grupos de participantes: buenos imaginadores y participantes emocionalmente conscientes formaron el grupo A, con el resto formando el grupo B. En el primer experimento, grabamos en video, durante unos segundos, los toques expresivos del grupo A, y pidió al grupo B que adivine la emoción de cada toque expresivo. En el segundo experimento, entrenamos al grupo A para expresar todas las emociones en un teléfono inteligente sensible a la fuerza. Luego recolectamos cientos de miles de sus toques y aplicamos técnicas de selección de funciones y aprendizaje automático para detectar emociones a partir de las coordenadas de los toques con los dedos, la cantidad de fuerza y el área de la piel del participante, todo ello como funciones del tiempo.
Se reclutaron 117 voluntarios: 15 eran buenos imaginadores y estaban emocionalmente conscientes (grupo A); los otros 102 participantes formaron el grupo B. En el primer experimento, el grupo B pudo reconocer con éxito todas las emociones (y ninguna emoción) con una alta precisión del 83.8% (769/918): 49.0% (50/102) de ellos eran 100 % (450/450) correcto y 25.5% (26/102) fueron 77.8% (182/234) correctos. En el segundo experimento, obtuvimos una alta precisión de clasificación del 91,11% (2110/2316) en la detección de todas las emociones (y no de las emociones) de 9 características espaciotemporales del grupo A.
Las emociones modulan nuestros toques en pantallas sensibles a la fuerza, y los humanos tienen una habilidad natural para reconocer las emociones de otras personas al ver videos pregrabados de sus toques expresivos. Las máquinas pueden aprender la misma capacidad de reconocimiento de emociones y obtener mejores resultados que los humanos si se les permite continuar aprendiendo sobre nuevos datos. Es posible habilitar pantallas sensibles a la fuerza para reconocer las emociones de los usuarios y compartir esta visión emocional con los usuarios, aumentando la conciencia emocional de los usuarios y permitiendo a los investigadores diseñar mejores tecnologías para el bienestar.

Para acceder al texto completo consulte las características de suscripción de la fuente original:https://mental.jmir.org



ABSTRACT

Background: Emotions affect our mental health: they influence our perception, alter our physical strength, and interfere with our reason. Emotions modulate our face, voice, and movements. When emotions are expressed through the voice or face, they are difficult to measure because cameras and microphones are not often used in real life in the same laboratory conditions where emotion detection algorithms perform well. With the increasing use of smartphones, the fact that we touch our phones, on average, thousands of times a day, and that emotions modulate our movements, we have an opportunity to explore emotional patterns in passive expressive touches and detect emotions, enabling us to empower smartphone apps with emotional intelligence.

Objective: In this study, we asked 2 questions. (1) As emotions modulate our finger movements, will humans be able to recognize emotions by only looking at passive expressive touches? (2) Can we teach machines how to accurately recognize emotions from passive expressive touches?

Methods: We were interested in 8 emotions: anger, awe, desire, fear, hate, grief, laughter, love (and no emotion). We conducted 2 experiments with 2 groups of participants: good imagers and emotionally aware participants formed group A, with the remainder forming group B. In the first experiment, we video recorded, for a few seconds, the expressive touches of group A, and we asked group B to guess the emotion of every expressive touch. In the second experiment, we trained group A to express every emotion on a force-sensitive smartphone. We then collected hundreds of thousands of their touches, and applied feature selection and machine learning techniques to detect emotions from the coordinates of participant’ finger touches, amount of force, and skin area, all as functions of time.

Results: We recruited 117 volunteers: 15 were good imagers and emotionally aware (group A); the other 102 participants formed group B. In the first experiment, group B was able to successfully recognize all emotions (and no emotion) with a high 83.8% (769/918) accuracy: 49.0% (50/102) of them were 100% (450/450) correct and 25.5% (26/102) were 77.8% (182/234) correct. In the second experiment, we achieved a high 91.11% (2110/2316) classification accuracy in detecting all emotions (and no emotion) from 9 spatiotemporal features of group A touches.

Conclusions: Emotions modulate our touches on force-sensitive screens, and humans have a natural ability to recognize other people’s emotions by watching prerecorded videos of their expressive touches. Machines can learn the same emotion recognition ability and do better than humans if they are allowed to continue learning on new data. It is possible to enable force-sensitive screens to recognize users’ emotions and share this emotional insight with users, increasing users’ emotional awareness and allowing researchers to design better technologies for well-being.


emotional artificial intelligence; human-computer interaction; smartphone; force-sensitive screens; mental health; positive computing; artificial intelligence; emotions; emotional intelligence

Url corta de esta página: http://psiqu.com/2-57196
Etiquetas: inteligencia emocional emocional, la interacción persona-ordenador, teléfono inteligente pantallas sensibles a la fuerza, salud mental, computación positiva, inteligencia artificial, emociones inteligencia emocional

Comentarios de los usuarios



No hay ningun comentario, se el primero en comentar
PUBLICIDAD
PRÓXIMOS CURSOS ONLINE
PUBLICIDAD
psiquiatria.com - Portal número 1 en salud mental en lengua castellana