Description du projet
Détection automatisée des événements indésirables péri-opératoires
Au cours d’une intervention chirurgicale, des événements indésirables péri-opératoires (EIP) se produisent souvent, mais sont trop peu souvent-rapportés, ce qui entrave leur analyse complète et le développement de nouvelles mesures de sécurité. De récentes études révèlent que des événements apparemment évités de justesse sont liés à des erreurs et à des complications majeures. Financé par le Conseil européen de la recherche, le projet CompSURG propose de développer une approche informatique pionnière de détection automatique et d’analyse à grande échelle des EIP dans les vidéos endoscopiques. La solution s’appuiera sur une vision artificielle avancée pour modéliser les interactions complexes entre l’outil et le tissu, et identifier les manœuvres chirurgicales dont le sécurité doit être revue. Ces travaux devraient déboucher sur de nouvelles mesures de sécurité et des formations dans divers types de chirurgie, améliorant ainsi les résultats cliniques et les soins prodigués aux patients.
Objectif
The operating room is the most frequent location for hospital-related errors. However, intra-operative adverse events (IAEs) are underreported, which impedes their large-scale analysis, the definition of appropriate safety measures and the development of intra-operative support systems to reduce their occurrence. Recent manual video-based assessments of surgical procedures have shown that not only are IAEs frequent, but also that near miss intra-operative events, previously thought to be inconsequential, are in fact predictors of major errors and correlate with complications and poor surgical outcomes.
We leverage these recent findings to propose a radically new, computational approach to improve intra-operative surgical safety. We propose to focus on automatically detecting and analyzing IAEs in endoscopic videos via novel computer vision methods that model the detailed semantics of tool-tissue interactions, as needed to study the activity patterns leading to these critical events. We will first generate a multi-centric, multi-procedure dataset annotated with tool-tissue interaction semantics and IAEs. We will then develop a new fully differentiable neural network model of surgical videos relying on an intermediate graph representation to disentangle the surgical semantics. Finally, we will introduce new training methods for scaling these approaches to different types of surgeries and centers using a limited set of annotations.
These computational methods will allow the automated reporting and analysis of IAEs at a scale unfeasible with manual methods. We will use them to analyze patterns of IAEs and to identify the activities and phases of the surgical procedures that would benefit from new safety measures. We will also design a prototype for intra-operative support. We believe that this project will help to improve surgical safety and hence greatly benefit patient care.
Champ scientifique (EuroSciVoc)
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN.
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN.
Vous devez vous identifier ou vous inscrire pour utiliser cette fonction
Mots‑clés
Programme(s)
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Régime de financement
HORIZON-ERC - HORIZON ERC GrantsInstitution d’accueil
67081 Strasbourg
France