European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article available in the following languages:

Fini le chatbot, place au deadbot

Une étude de l’université de Cambridge met en garde contre les conséquences des chatbots basés sur l’IA qui permettent de parler aux morts.

Société icon Société

Qu’il s’agisse de créer un poème ou de raconter une blague, nous sommes désormais familiers avec les possibilités illimitées des chatbots IA. Mais ressusciter numériquement les morts? Ramener à la vie les grands-parents, c’est un peu effrayant, non? Les chatbots IA connus sous le nom de «deadbots» ou «griefbots», qui simulent des personnes décédées, existent déjà. Ils ont été créés grâce à l’IA qui imite le langage et la personnalité d’un proche décédé en se basant sur son «empreinte numérique». Des éthiciens de l’université de Cambridge font part de leurs préoccupations. Un article publié dans la revue «Philosophy & Technology» affirme que l’industrie florissante de l’après-vie numérique pourrait causer des dommages psychologiques à long terme.

L’après-vie numérique

Les rapides progrès de l’IA générative impliquent que presque toute personne ayant accès à Internet et disposant de quelques connaissances de base peut ranimer un proche défunt», a déclaré à «The Guardian» la Dre Katarzyna Nowaczyk-Basińska, co-auteure de l’étude et chercheuse au Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge. «Ce domaine de l’IA est un champ de mines éthique. La dignité du défunt est de la plus haute importance et il convient de veiller à ce qu’elle ne soit pas bafouée par les motivations financières des services numériques d’après-vie, par exemple.» Et si quelqu’un achetait un deadbot et l’offrait en cadeau pour la postérité? «Une personne peut laisser une simulation basée sur l’IA en guise de cadeau d’adieu à des proches qui ne sont pas prêts à faire leur deuil de cette manière», a déclaré Katarzyna Nowaczyk-Basińska dans un communiqué de presse de l’université de Cambridge. «Les droits des donneurs de données et de ceux qui interagissent avec les services d’IA d’après-vie doivent être protégés de la même manière.»

Un fantôme numérique pour la postérité

Les destinataires peuvent-ils se retirer ou désactiver le deadbot? «Les gens pourraient développer des liens émotionnels forts avec de telles simulations, ce qui les rendrait particulièrement vulnérables à la manipulation», explique le Dr Tomasz Hollanek, co-auteur de l’étude, également du LCFI. «Des méthodes, voire des rituels, permettant de désactiver les deadbots dans la dignité devraient être envisagés. Il peut s’agir d’une forme d’enterrement numérique, par exemple, ou tout autre type de cérémonies dictée par le contexte social.» L’étude invite les équipes de conception à faire des protocoles de désactivation une priorité. «Nous recommandons des protocoles de conception qui empêchent que les deadbots soient utilisés de manière irrespectueuse, par exemple pour faire de la publicité ou avoir une présence active sur les réseaux sociaux. Il est essentiel que les services numérique d’après-vie prennent en compte les droits et le consentement non seulement des personnes qu’ils recréent, mais aussi de celles qui devront interagir avec les simulations», ajoute Tomasz Hollanek. «Ces services risquent de provoquer une grande détresse chez les gens s’ils sont soumis à des hantises numériques non désirées de la part d’une IA recréant avec une précision alarmante les personnes qu’ils ont perdues. L’effet psychologique potentiel, en particulier à un moment déjà difficile, pourrait être dévastateur.» «Nous devons commencer à réfléchir dès maintenant à la manière d’atténuer les risques sociaux et psychologiques de l’immortalité numérique, car la technologie est déjà là», avertit Katarzyna Nowaczyk-Basińska.

Mots‑clés

IA, chatbot, deadbot, mort, vie après la mort, après-vie numérique, défunt, griefbot, deuil, funérailles