Eksperci AI ostrzegają, że martwa sztuczna inteligencja, czyli cyfrowe reanimacje zmarłego, wkrótce staną się rzeczywistością. Dlatego też należy uregulować tę kwestię, aby zapobiec doznawaniu przez ludzi krzywdy psychicznej w wyniku „nawiedzenia” ich twórców i użytkowników.

Przykładem takich usług, o ile jest to technologicznie możliwe i dopuszczalne prawnie, byłoby stworzenie chatbotów, które wykorzystując zapisane rozmowy z zagubioną osobą, „oddzwoniłyby do babci” w sensie zrozumienia emocji ludzi po wysłuchaniu takich dyskusji, jak podaje Uniwersytet naukowców z Cambridge

Niektóre firmy oferują usługi w sposób przypominający odcinek „Be Right Back” serialu Black Mirror, w którym chatbot może naśladować wzorce językowe i cechy osobowości zmarłej osoby, wykorzystując pozostawiony przez nią cyfrowy ślad – twierdzą autorzy badania.

Przepisy bezpieczeństwa potrzebne do ochrony godności cyfrowej

Badanie, którego wyniki opublikowano w czasopiśmie „Philosophy and Technology”, przedstawia przykłady, w jaki sposób firmy mogą wykorzystywać deadboty, na przykład do reklamowania produktów danej osobie w sposób podobny do tego, w jaki reklamuje się zmarła bliska osoba, lub do traumatyzowania dzieci poprzez twierdzenie, że zmarły rodzic jest „z nimi”.

Jednakże we wszystkich przypadkach niegodne zaufania firmy i nieodpowiedzialne inicjatywy biznesowe mogą skutkować długotrwałymi szkodami psychologicznymi i naruszeniem praw zmarłego – sugeruje artykuł.

Naukowcy sugerują, że codzienne interakcje wiążą się z przytłaczającym ciężarem emocjonalnym. Twierdzą, że takie wsparcie emocjonalne może również utrudniać proces żałoby, który jest naturalnym sposobem radzenia sobie ze stratą.

Etyczne pole minowe

Dr Katarzyna Nowaczyk-Basińska, jedna ze współautorek badania z Leverhulme Centre for the Future of Intelligence (LCFI) na Uniwersytecie Cambridge, stwierdziła: „Szybki postęp w dziedzinie generatywnej sztucznej inteligencji oznacza, że ​​niemal każdy, kto ma dostęp do Internetu i podstawową wiedzę, może przywrócić życie zmarłej bliskiej osobie”.

Ten obszar AI wydaje się być polem minowym etyki. Najważniejszą rzeczą do zrobienia jest zapewnienie, że godność zmarłego nie zostanie naruszona przez nastawione na zysk usługi, takie jak dostawcy cyfrowego życia pozagrobowego. Główny problem może wynikać z firm, które będą komercjalizować swoją infrastrukturę online legacy za pośrednictwem reklam.

Szczególnie ryzykowne jest angażowanie dzieci w ten proces, ponieważ mogą one spotkać się z najgorszym wynikiem. Towarzystwo w postaci „deadbotów” może wkrótce stać się konieczne dla rodziców, którzy chcą pocieszyć swoje dzieci, które niedawno straciły mamę lub tatę.

Wpływ na proces żałoby

Nie ma jednak badań, które mogłyby wskazać na zasadność takich działań, co powinno skłonić do zastanowienia się nad ich potencjalnym, bardzo nieprzyjemnym wpływem, nie wspominając o tym, że mogą one negatywnie zakłócić normalny proces żałoby.

Jak wynika z opracowania badawczego, „żadna usługa rekreacyjna nie jest w stanie udowodnić, że umożliwienie dzieciom interakcji z „martwymi robotami” jest korzystne lub przynajmniej nie szkodzi tej wrażliwej grupie”.

Aby zapewnić godność zmarłym i dobre samopoczucie psychiczne żyjącym, naukowcy proponują szereg dobrych praktyk, które można wykorzystać nawet w celu uchwalenia przepisów regulujących te kwestie.

Platformy te potrzebują protokołów dotyczących „wycofywania” robotów-deadbotów, ograniczania ich interaktywnych funkcji wyłącznie do osób dorosłych, uznawania ograniczeń wszelkich sztucznych bytów w pełni działających oraz zapewniania klientom dużej przejrzystości.

Globalny zasięg i różnorodne zastosowania

Według badaczy istnieją platformy, na których obraz zmarłej osoby można wygenerować za pomocą AI za umiarkowaną cenę. Na przykład istnieje Project December, który początkowo używał modeli GPT, a później ich systemów, a także istnieją aplikacje takie jak Hereafter.

Podobnie, istnieją chińskie odpowiedniki z tymi samymi usługami wskazanymi w badaniu. W 2021 r. Joshua Barbeau zyskał uwagę opinii publicznej, gdy użył GPT-3 do opracowania chatbota, który mówił głosem jego zmarłej dziewczyny. W 2015 r. Eugenia Kuyda przekształciła teksty swojej zmarłej przyjaciółki w chatbota, co z kolei utorowało drogę najpopularniejszej aplikacji towarzyszącej AI o nazwie Replika.

Technologia ta nie ogranicza się również do chatbotów. MyHeritage, strona genealogiczna, w 2021 r. wprowadziła Deep Nostalgia, funkcję, która generowała animowane filmy z pojedynczych zdjęć z przodkami użytkowników. Gdy tylko funkcja stała się wirusowa, firma musiała przyznać, że wielu użytkowników uważało ją za przerażającą. Wraz ze stopniowym rozwojem tych technologii nie ma innej alternatywy niż pamiętanie o etyce, aby ułatwić rozwój.