European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article available in the following languages:

Attention à l’essor de l’IA!

Le «parrain de l’IA» quitte Google pour mettre en garde contre les dangers de l’IA.

Recherche fondamentale icon Recherche fondamentale

Le 1er mai, l’informaticien Geoffrey Hinton a annoncé sa démission de Google en raison de préoccupations relatives à la technologie qu’il a contribué à développer. Il s’inquiète de l’intelligence acquise par la technologie. Geoffrey Hinton fait partie du nombre croissant de personnes influentes qui mettent en garde face à une nouvelle génération d’agents de dialogue alimentés par l’IA comme ChatGPT. «Pour l’heure, ils ne sont pas plus intelligents que nous, pour autant que je sache. Mais je pense qu’ils pourraient bientôt l’être», a-t-il déclaré à la «BBC». «Ce que nous voyons, ce sont des choses comme GPT-4 éclipser une personne en termes de connaissances générales, et ce, de loin. En termes de raisonnement, il n’est pas aussi bon, mais il est déjà capable de procéder à un raisonnement simple. Et compte tenu du rythme des progrès réalisés, nous nous attendons à ce que les choses s’améliorent assez rapidement. Cette situation doit donc nous inquiéter.»

Comprendre les nouveaux risques

Les développements de l’IA posent «des risques profonds pour la société et l’humanité», a déclaré Geoffrey Hinton dans «The New York Times». «Regardez où elle était il y a cinq ans et où elle en est aujourd’hui. Prenez cette différence et reportez-la dans l’avenir. C’est effrayant. Il est difficile de voir comment empêcher de mauvaises personnes de l’utiliser à mauvais escient.» Il a précisé: «Certains pensaient que ces choses pourraient en réalité devenir plus intelligentes que les humains. Mais la plupart des gens pensaient que nous en étions loin. Et je le pensais aussi. Je pensais que cela arriverait dans 30 à 50 ans, voire plus. De toute évidence, je ne le pense plus.» Ce n’est pas qu’une question d’intelligence. C’est là que les choses deviennent inquiétantes. L’IA pourrait manipuler et peut-être même trouver un moyen de tuer des humains. «Si elle devient beaucoup plus intelligente que nous, elle sera très forte en manipulation parce qu’elle aura appris cela de nous, et il existe très peu d’exemples d’une chose plus intelligente contrôlée par une chose moins intelligente», a expliqué Geoffrey Hinton dans un entretien à «CNN» en direct. «Elle sait comment programmer, elle trouvera donc des moyens de contourner les restrictions que nous lui imposons. Elle trouvera des moyens de manipuler les gens pour qu’ils fassent ce qu’elle veut.» Alors, que faire? «Je ne suis pas convaincu que nous puissions résoudre ce problème. Je crois que nous devrions faire un gros effort pour réfléchir aux moyens de le résoudre. Je n’ai pas de solution pour le moment.»

Prendre du recul?

En mars, Elon Musk, le milliardaire du secteur de la technologie, et plusieurs experts ont demandé à freiner le développement des systèmes d’IA. Cela devrait permettre de gagner du temps pour assurer leur sécurité. La sortie de GPT-4, une version beaucoup plus puissante de la technologie utilisée par ChatGPT, a mené à la rédaction d’une lettre ouverte signée par plus de 1 000 personnes du domaine de l’IA, dont Elon Musk et le cofondateur d’Apple, Steve Wozniak. Fait intéressant, Geoffrey Hinton ne faisait pas partie des signataires. «Je ne pense pas que nous puissions arrêter le progrès», a-t-il déclaré à «CNN». «Je n’ai pas signé la pétition disant que nous devrions arrêter de travailler sur l’IA parce que si les Américains arrêtent, les Chinois, eux, ne le feront pas.»

Mots‑clés

IA, Google, Geoffrey Hinton, technologie, agent de dialogue, ChatGPT, GPT-4, intelligence