Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article available in the following languages:

L’heure tourne-t-elle pour l’IA?

Des experts renommés de l’IA appellent les gouvernements du monde entier et les géants de la technologie à prendre des mesures immédiates pour faire face aux risques liés à cette révolution.

«Il est probable que plus aucun d’entre nous n’aura de travail», a déclaré(s’ouvre dans une nouvelle fenêtre) Elon Musk au sujet de l’IA lors d’une conférence à distance organisée à Paris le 23 mai. Le milliardaire n’a pas hésité à dire que l’IA était sa plus grande crainte. Quelques heures auparavant, lors du sommet sur la sécurité de l’IA qui s’était tenu à Séoul le 21, 16 entreprises, dont Google, Meta et Microsoft, se sont engagées à développer la technologie de manière sûre. Cette déclaration a été soutenue par 10 pays et par l’UE. «Nous assistons à des avancées technologiques qui changent la vie... et à de nouveaux risques qui menacent la vie, de la désinformation à la surveillance de masse, en passant par la perspective d’armes autonomes mortelles», a commenté(s’ouvre dans une nouvelle fenêtre) le secrétaire général de l’ONU, António Guterres, lors de ce sommet international.

Quelle révolution pour l’IA?

Dans la revue «Science»(s’ouvre dans une nouvelle fenêtre), 25 des plus grands experts universitaires mondiaux de l’Intelligence artificielle, dont les «parrains de l’IA» Geoffrey Hinton et Yoshua Bengio, avertissent qu’il reste encore beaucoup à faire pour parvenir à un accord mondial sur la sécurité. Ils présentent des mesures politiques pour la recherche, le développement et la gouvernance afin d’atténuer les risques et les menaces. Les auteurs estiment que nous ne sommes pas correctement préparés à faire face aux risques découlant de l’IA, car peu de ressources sont consacrées à la sécurité et à l’éthique du développement et de la mise en œuvre de ces technologies. Ils invitent par conséquent les grandes entreprises technologiques et les bailleurs de fonds publics à investir davantage, en consacrant au moins un tiers de leur budget à la lutte contre ces dangers. Ils appellent également les régulateurs mondiaux et les gouvernements à mettre en place des normes qui empêchent les imprudences et les abus.

Transformer les paroles en actions concrètes

«Lors du dernier sommet sur l’IA, le monde a convenu qu’il fallait agir, mais il est maintenant temps de passer de propositions vagues à des engagements concrets. Ce document fournit de nombreuses recommandations importantes sur ce que les entreprises et les gouvernements devraient s’engager à faire», note le co-auteur, Philip Torr professeur à l’université d’Oxford, dans un communiqué de presse(s’ouvre dans une nouvelle fenêtre). «Nous devons nous préparer dès maintenant à des risques qui peuvent sembler relever de la science-fiction, comme le piratage de réseaux et d’infrastructures essentiels par des systèmes d’IA, la manipulation politique à grande échelle, les robots-soldats et les drones tueurs entièrement autonomes, et même les IA qui tentent d’être plus intelligentes que nous et d’échapper à nos efforts pour les désactiver», explique Jan Brauner, docteur de l’Université d’Oxford et coauteur de l’étude. «Actuellement, le monde de l’IA se concentre sur le développement des capacités, et la sécurité et l’éthique sont reléguées au second plan. Pour que l’IA soit une bénédiction, nous devons nous réorienter; il ne suffit pas d’augmenter les capacités.»

Mon livret 0 0