Les experts en IA préviennent que l’IA morte, ou les réanimations numériques des défunts, sont sur le point de devenir réalité. Par conséquent, il doit y avoir une réglementation sur cette question pour éviter que les gens ne subissent un préjudice psychologique dû à la « hantise » de leurs créateurs et utilisateurs.

Un exemple de tels services, technologiquement possible et légalement autorisé, permettrait la création de chatbots qui utilisent des conversations enregistrées avec une personne perdue pour « rappeler grand-mère », dans le sens de comprendre les émotions des gens après avoir entendu de telles discussions, comme l'indique l'Université. des scientifiques de Cambridge

Certaines entreprises proposent des services rappelant l'épisode « Be Right Back » de Black Mirror, qui permet à un chatbot d'imiter les schémas linguistiques et les traits de personnalité d'une personne décédée en utilisant l'empreinte numérique qu'elle a laissée, selon l'étude.

Des règles de sécurité sont nécessaires pour protéger la dignité numérique

L'étude, publiée dans la revue Philosophy and Technology, présente des exemples de la manière dont les deadbots peuvent être utilisés par les entreprises, par exemple pour faire la publicité de produits auprès d'une personne de la même manière qu'un proche décédé ou pour traumatiser des enfants en prétendant qu'un parent décédé est « avec vous ».

Toutefois, dans tous les cas, les entreprises peu fiables et les initiatives commerciales imprudentes peuvent entraîner des dommages psychologiques à long terme et une violation des droits du défunt, suggère l’étude.

Les chercheurs suggèrent que les interactions quotidiennes se produisent avec un poids émotionnel écrasant. Ils affirment qu'un tel soutien émotionnel peut également entraver le processus de deuil, une façon naturelle de faire face à la perte.

Un champ de mines éthique

Le Dr Katarzyna Nowaczyk-Basińska, l’une des co-auteures de l’étude au Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, a déclaré : « Les progrès rapides de l’IA générative signifient que presque toute personne disposant d’un accès à Internet et de quelques connaissances de base peut faire revivre un être cher décédé. »

Ce domaine de l'IA semble être un champ de mines éthique. La chose la plus essentielle à faire est de s'assurer que la dignité du défunt ne soit pas violée par des services à but lucratif comme les fournisseurs de services numériques d'au-delà, par exemple. Le problème majeur pourrait provenir des entreprises qui commercialiseront leur infrastructure héritée en ligne par le biais de publicités.

Il est particulièrement risqué d’impliquer les enfants dans le processus, car ils risquent d’en subir les conséquences les plus graves. La présence de « robots morts » pourrait bientôt devenir nécessaire pour les parents qui cherchent à consoler leurs enfants qui ont récemment perdu leur mère ou leur père.

Impact sur le processus de deuil

Cependant, il n'existe aucune étude qui puisse indiquer la pertinence de tels efforts, ce qui devrait nous faire penser à leur impact possible qui pourrait être très désagréable, sans parler du fait qu'il pourrait interférer négativement avec le processus normal de deuil.

Selon l’étude, « aucun service de recréation ne peut prouver que permettre aux enfants d’interagir avec des « deadbots » est bénéfique ou, à tout le moins, ne nuit pas à ce groupe vulnérable ».

Pour assurer la dignité des morts et le bien-être psychologique des vivants, les chercheurs proposent une série de bonnes pratiques qui peuvent être utilisées jusqu’à l’élaboration de lois pour les réglementer.

Ces plateformes ont besoin de protocoles pour « retirer » les deadbots, limiter leurs fonctions interactives aux seuls adultes, reconnaître les limites de toute entité artificielle en pleine opération et être très transparentes avec les clients.

Portée mondiale et applications variées

Selon les chercheurs, il existe des plateformes permettant de générer l’image d’une personne décédée à moindre coût grâce à l’IA. Par exemple, Project December, qui a d’abord utilisé les modèles GPT, puis leurs systèmes, et il existe également des applications comme Hereafter.

De même, il existe des homologues chinois proposant les mêmes services que ceux indiqués dans l'étude. En 2021, Joshua Barbeau a attiré l'attention du public lorsqu'il a utilisé GPT-3 pour développer un chatbot qui parlait avec la voix de sa petite amie, décédée. En 2015, Eugenia Kuyda a transformé les textes de son amie décédée en chatbot, donnant ainsi naissance à l'application compagnon d'IA la plus populaire, Replika.

La technologie ne se limite pas aux chatbots. MyHeritage, le site de généalogie, a lancé en 2021 Deep Nostalgia, une fonctionnalité qui génère des vidéos animées à partir de photos individuelles avec les ancêtres des utilisateurs. Dès que la fonctionnalité est devenue virale, l'entreprise a dû admettre que de nombreux utilisateurs la trouvaient effrayante. Avec l'avancement progressif de ces technologies, il n'y a pas d'autre moyen que de garder l'éthique à l'esprit pour faciliter le développement.