Gli esperti di intelligenza artificiale avvertono che l’intelligenza artificiale morta, o la rianimazione digitale dei defunti, sta per diventare realtà. Pertanto, è necessario che vi sia una regolamentazione di questo problema per evitare che le persone soffrano di danni psicologici a causa della “ossessione” dei loro creatori e utenti.

Un esempio di tali servizi, essendo tecnologicamente possibile e legalmente consentito, consentirebbe la creazione di chatbot che utilizzano le conversazioni salvate con una persona persa per "richiamare la nonna", nel senso di comprendere le emozioni delle persone dopo aver ascoltato tali discussioni, come affermato dall'Università degli scienziati di Cambridge

Secondo la ricerca, alcune aziende offrono servizi che ricordano l'episodio "Be Right Back" di Black Mirror, che consente a un chatbot di imitare i modelli linguistici e i tratti della personalità di una persona deceduta utilizzando l'impronta digitale che ha lasciato.

Norme di sicurezza sollecitate per proteggere la dignità digitale

Lo studio, pubblicato sulla rivista Philosophy and Technology, presenta esempi di come i deadbot possono essere utilizzati dalle aziende, ad esempio per pubblicizzare prodotti a una persona in modo simile a una persona cara defunta o per traumatizzare i bambini affermando che un genitore morto è "con te".

Tuttavia, come suggerisce lo studio, in tutti i casi le aziende inaffidabili e le iniziative imprenditoriali sconsiderate possono causare danni psicologici a lungo termine e una violazione dei diritti del defunto.

I ricercatori suggeriscono che le interazioni quotidiane avvengono con un peso emotivo schiacciante. Affermano che tale supporto emotivo può anche ostacolare il processo di elaborazione del lutto, un modo naturale di affrontare la perdita.

Un campo minato etico

La dottoressa Katarzyna Nowaczyk-Basińska, una delle coautrici dello studio presso il Leverhulme Centre for the Future of Intelligence (LCFI) di Cambridge, ha affermato: "I rapidi progressi nell'intelligenza artificiale generativa significano che quasi chiunque abbia accesso a Internet e alcune conoscenze di base può far rivivere una persona cara defunta".

Quest'area dell'IA sembra essere un campo minato etico. La cosa più essenziale da fare è garantire che la dignità del defunto non venga violata da servizi orientati al profitto come i fornitori di aldilà digitali, ad esempio. Il problema principale potrebbe sorgere dalle aziende che commercializzeranno la loro infrastruttura legacy online tramite annunci pubblicitari.

È particolarmente rischioso coinvolgere i bambini nel processo perché potrebbero trovarsi ad affrontare il risultato peggiore. La compagnia sotto forma di "deadbot" potrebbe presto diventare necessaria per i genitori che cercano di consolare i loro figli che hanno recentemente perso la mamma o il papà.

Impatto sul processo di elaborazione del lutto

Tuttavia, non esistono studi che possano indicare l'idoneità di tali sforzi, il che deve far pensare al loro possibile impatto, che potrebbe essere molto spiacevole, per non parlare del fatto che potrebbe interferire negativamente con il normale processo di elaborazione del lutto.

Secondo il documento di ricerca, “Nessun servizio di ricreazione può provare che consentire ai bambini di interagire con i ‘deadbot’ sia vantaggioso o, quantomeno, non danneggi questo gruppo vulnerabile”.

Per garantire la dignità dei defunti e il benessere psicologico dei vivi, i ricercatori propongono una serie di buone pratiche che possono essere utilizzate anche al punto di emanare leggi per regolamentarle.

Tali piattaforme necessitano di protocolli per “ritirare” i deadbot, limitando le loro funzioni interattive solo agli adulti, riconoscendo i limiti di qualsiasi entità artificiale in piena attività ed essendo molto trasparenti con i clienti.

Portata globale e applicazioni varie

Secondo i ricercatori, esistono alcune piattaforme in cui l'immagine di una persona morta può essere generata con l'intelligenza artificiale a un costo modesto. Ad esempio, c'è Project December, che inizialmente ha utilizzato modelli GPT e in seguito ha utilizzato i loro sistemi, e ci sono anche app come Hereafter.

Allo stesso modo, ci sono controparti cinesi con gli stessi servizi indicati nello studio. Nel 2021, Joshua Barbeau ha ricevuto l'attenzione del pubblico quando ha utilizzato GPT-3 per sviluppare un chatbot che parlava con la voce della sua ragazza, che era scomparsa. Nel 2015, Eugenia Kuyda ha trasformato i testi della sua amica defunta in un chatbot, dando a sua volta il via alla più popolare app di accompagnamento AI chiamata Replika.

La tecnologia non si limita ai chatbot. MyHeritage, il sito di genealogia, nel 2021 ha introdotto Deep Nostalgia, una funzionalità che generava video animati da singole immagini con gli antenati degli utenti. Non appena la funzionalità è diventata virale, l'azienda ha dovuto ammettere che molti utenti la trovavano inquietante. Con il graduale avanzamento di queste tecnologie, non esiste altro mezzo alternativo se non quello di tenere a mente l'etica per facilitare lo sviluppo.