Inteligencia artificial para reconocer en rostros humanos signos sutiles de emociones
Se dice que el rostro es el espejo del alma. Es una expresión en sentido figurado, pero lo que sí es cierto es que el rostro suele funcionar como un espejo del estado emocional de la persona.
La interpretación de expresiones faciales como parte de la psicoterapia o la investigación psicoterapéutica, por ejemplo, es una forma muy eficaz de determinar cómo se siente una persona en ese momento concreto. Ya en los años 70, el psicólogo Paul Ekman desarrolló un sistema de codificación estandarizado para asignar emociones básicas como felicidad, asco o tristeza a una expresión facial en una imagen o secuencia de vídeo.
El sistema de Ekman está muy extendido y representa un estándar en la investigación psicológica de las emociones.
Pero el proceso de analizar e interpretar las expresiones faciales grabadas, en el marco de proyectos de investigación o psicoterapia, requiere mucho tiempo, por lo que los especialistas en psiquiatría suelen utilizar métodos indirectos más rápidos pero menos fiables, como las mediciones de la conductancia cutánea, que también pueden ser una medida de la excitación emocional.
El equipo de Martin Steppan, de la Universidad de Basilea en Suiza, se propuso averiguar si los sistemas de inteligencia artificial pueden determinar con fiabilidad los estados emocionales de los pacientes en grabaciones de vídeo.
Los investigadores utilizaron redes neuronales artificiales de libre acceso que fueron entrenadas en la detección de seis emociones básicas (felicidad, sorpresa, ira, asco, tristeza y miedo) utilizando más de 30.000 fotos faciales. A continuación, este sistema de inteligencia artificial analizó datos de vídeo de sesiones de terapia con un total de 23 pacientes con patología límite de la personalidad. El sistema de inteligencia artificial, operando en un ordenador de alto rendimiento, tuvo que procesar más de 950 horas de grabaciones de vídeo para este estudio.
Los resultados fueron sorprendentes: las comparaciones estadísticas entre el análisis de tres terapeutas humanos entrenados y el sistema de inteligencia artificial mostraron un notable nivel de concordancia. El sistema de inteligencia artificial evaluó las expresiones faciales con la misma fiabilidad que un experto humano, pero además fue capaz de detectar incluso las emociones más fugaces, en el rango de los milisegundos, como una breve sonrisa o una expresión fugaz de asco.
Este tipo de microexpresiones pueden pasar desapercibidas para los terapeutas o percibirse solo de forma subconsciente. La inteligencia artificial es, por tanto, capaz de medir emociones fugaces con un nivel de sensibilidad superior al de los terapeutas humanos entrenados.
El estudio se titula “Machine Learning Facial Emotion Classifiers in Psychotherapy Research: A Proof-of-Concept Study”. Y se ha publicado en la revista académica Psychopathology. (Fuente: NCYT de Amazings)