Skip to main content
Web oficial de la Unión EuropeaWeb oficial de la UE
European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Affective Computing Models: from Facial Expression to Mind-Reading

Descripción del proyecto

Un análisis más detallado sobre los comportamientos faciales en las distintas culturas

En todas las culturas, comprender las expresiones faciales es crucial para podernos comunicar de forma eficaz. Sin embargo, los constantes desacuerdos transculturales ponen en tela de juicio la hipótesis de la universalidad de las expresiones faciales. Aunque el análisis automático de la expresión facial ha avanzado mucho, la comprensión de las emociones en entornos diversos y realistas sigue siendo limitada. En este contexto, el equipo del proyecto ACMod, financiado por las Acciones Marie Skłodowska-Curie, mejorará la modelización del comportamiento facial intercultural. De esa forman, abordarán las brechas en la interacción persona-ordenador, la robótica y la realidad virtual. Mediante la combinación de psicología e informática, el objetivo de ACMod es digitalizar las emociones y desarrollar modelos faciales en cuatro dimensiones. En el proyecto se fomenta la colaboración entre socios de la Unión Europea y Asia oriental, lo que potencia la investigación y el intercambio de conocimientos. El equipo de ACMod pretende revolucionar la comunicación con agentes inteligentes tanto en entornos reales como virtuales.

Objetivo

Mind reading plays an indispensable role in human social interaction and communication. One of the key factors in mind reading is facial expression analysis. It is thus crucial to understand and model facial behaviors reflecting mental states to enhance communication experience with robots and other intelligent agents in either real social interaction or augmented virtual environments. As well, consistent cross-cultural disagreement about the emotion and intensity conveyed by gold-standard universal facial expressions questions the universality hypothesis. In recent years, even though automatic facial expression analysis has achieved excellent progress, the research of emotion understanding in realistic environment across cultures is still lacking. Substantial psychological works support the use of the appraisal theory for internal emotion detection through facial behaviors, while research in computer science mainly focuses on facial modelling but ignoring the underlying biologically-driven mechanism. Therefore, we plan to reconstruct facial macro- and micro-expressions and digitise emotion appraisal, collect 4D (dynamic 3D) facial expression dataset with culture diversity and develop autonomous 4D facial model based on the collected 4D data and cultural emotion appraisal theory, and push forward commercialisation.
ACMod project aims to advance the state of the art in understanding and modelling naturalistic facial behaviours in social interaction cross various cultures, which is essential to the next generation of human-computer interaction, robotics and augmented virtual reality techniques. This project will open up a new avenue for modelling facial behaviors by taking a fundamentally different and interdisciplinary approach, combining theories and techniques in e.g. psychology and computer science with an emphasis on social interaction applications. The project will promote knowledge exchange between EU and East Asian partners to foster the researchers involved.

Ámbito científico (EuroSciVoc)

CORDIS clasifica los proyectos con EuroSciVoc, una taxonomía plurilingüe de ámbitos científicos, mediante un proceso semiautomático basado en técnicas de procesamiento del lenguaje natural.

Para utilizar esta función, debe iniciar sesión o registrarse

Coordinador

OULUN YLIOPISTO
Aportación neta de la UEn
€ 460 000,00
Dirección
PENTTI KAITERAN KATU 1
90014 Oulu
Finlandia

Ver en el mapa

Región
Manner-Suomi Pohjois- ja Itä-Suomi Pohjois-Pohjanmaa
Tipo de actividad
Higher or Secondary Education Establishments
Enlaces
Coste total
Sin datos

Participantes (1)

Socios (8)