Descripción del proyecto
La autonomía y capacidad de toma de decisiones de los robots
Los robots actuales se limitan a entornos controlados. Incluso los humanoides avanzados como Atlas se basan en el control manual y en modelos detallados del espacio de trabajo, lo que deja poco margen para la detección. Como resultado, los robots carecen de la agilidad, destreza, autonomía, robustez y seguridad necesarias para trabajar junto a las personas en situaciones impredecibles de la vida real. El equipo del proyecto ARTIFACT, financiado por el Consejo Europeo de Investigación, pretende desarrollar una arquitectura de control modular y entrenable para mejorar la capacidad de toma de decisiones de los robots. Aprovechando la programación diferenciable, los robots crearán modelos de interacción a partir de datos de sensores y principios físicos. Descubrirán de forma autónoma gestos y movimientos complejos basados en experiencias pasadas, con lo que aprenderán a gestionar las interacciones y a razonar sobre su entorno. En el proyecto se creará «software» de código abierto demostrado en situaciones de la vida real que requieren destreza dactilar y agilidad.
Objetivo
Todays robots are confined to tightly controlled environments: even the complex choreographies that the Atlas humanoid flawlessly executes heavily rely on handcrafted control strategies and detailed workspace models, with little place for sensing. To put it bluntly, robots are nowhere near the level of agility, dexterity, and even less so autonomy, robustness, and safety required for their deployment in the wild alongside people.
The tenet of ARTIFACT is that the key to an actual revolution will come from the algorithmic foundations of artificial motion intelligence, an AI challenged from the start to interact physically with dynamic environments and, ultimately, people. To do so, we will break away from the dichotomy between optimal control, where the role of perception is traditionally limited to an early state estimation stage, and reinforcement learning, where control policies are typically learned model-free with no guarantee to cope with the curse of dimensionality.
In ARTIFACT, we will devise a unified, structured, modular, and learnable control architecture for providing robots with advanced decision-making capabilities to solve complex tasks and face new interactions as they experience the world. It will leverage the notion of differentiable programming at all scales to enable robots to (i) capture models of their interactions directly from a sound combination of sensor data and first principles from physics, (ii) autonomously discover new complex gestures and movements leveraging their past experiences, and (iii) learn embodied representations to control their interactions finely and reason about the physical world. It will be implemented in open-source software and shown in real-world and challenging scenarios requiring fine dexterity and high agility. Altogether, these contributions will be the key enablers to enhance robot autonomy fundamentally, thus opening the age of ubiquitous robots at the service of mankind.
Ámbito científico (EuroSciVoc)
CORDIS clasifica los proyectos con EuroSciVoc, una taxonomía plurilingüe de ámbitos científicos, mediante un proceso semiautomático basado en técnicas de procesamiento del lenguaje natural.
CORDIS clasifica los proyectos con EuroSciVoc, una taxonomía plurilingüe de ámbitos científicos, mediante un proceso semiautomático basado en técnicas de procesamiento del lenguaje natural.
- ciencias naturalesinformática y ciencias de la informaciónsoftware
- ciencias socialesciencias políticastransiciones políticasrevoluciones
- ingeniería y tecnologíaingeniería eléctrica, ingeniería electrónica, ingeniería de la informacióningeniería electrónicasensores
Para utilizar esta función, debe iniciar sesión o registrarse
Palabras clave
Programa(s)
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Régimen de financiación
HORIZON-ERC - HORIZON ERC GrantsInstitución de acogida
78153 Le Chesnay Cedex
Francia