Description du projet
Une nouvelle initiative relève les défis de la sécurité sémantique afin d’améliorer l’autonomie des robots
Les récents progrès de l’apprentissage automatique ont permis aux robots de comprendre sémantiquement leur environnement et d’interagir de manière plus naturelle avec les humains. Néanmoins, les interactions physiques avec des robots évoluant dans le monde réel posent des problèmes, notamment concernant la prise de décision sans danger. Les approches conventionnelles se concentrent sur des contraintes de sécurité explicites, mais transposer la compréhension sémantique en actions sûres demeure complexe. Soutenu par le programme Actions Marie Skłodowska-Curie (MSCA), le projet SSDM se propose de combler cette lacune. En faisant le lien entre la perception et l’action, le projet entend doter les robots de la capacité de prendre des décisions intelligentes et sémantiquement sûres. Grâce à des cadres mathématiques et des outils algorithmiques innovants, SSDM devrait révolutionner l’autonomie des robots, améliorant la sécurité et l’efficacité dans diverses applications pratiques.
Objectif
Recent breakthroughs in machine learning have opened up opportunities for robots to build a semantic understanding of their operating environment and interact with humans in more natural ways. While machine learning has unlocked new potentials for robot autonomy, as robots venture into the real world, physical interactions with the surrounding environment pose additional challenges. One typical challenge in practical applications is providing safety guarantees in robot decision-making. Much of the safe robot decision-making literature today focuses on explicit safety constraints defined in the robot state and input space. However, in practical applications, robots are often required to infer semantics-grounded safe actions from perception input. While recent machine learning techniques are increasingly capable of distilling semantic information from perception, translating the semantic understanding to explicit safety constraints is non-trivial. In this proposed project, we aim to close the perception-action loop and develop mathematical foundations and algorithmic tools that enable robots to make intelligent and semantically safe decisions.
Programme(s)
- HORIZON.1.2 - Marie Skłodowska-Curie Actions (MSCA) Main Programme
Régime de financement
HORIZON-TMA-MSCA-PF-EF - HORIZON TMA MSCA Postdoctoral Fellowships - European FellowshipsCoordinateur
80333 Muenchen
Allemagne