AIの専門家は、死んだAI、つまり死者のデジタル蘇生が現実のものになりつつあると警告している。そのため、AIの作成者や使用者の「憑りつき」によって人々が精神的被害を受けるのを防ぐために、この問題を規制する必要がある。

技術的に可能で法的に許容されるこのようなサービスの例としては、ケンブリッジ大学の科学者が述べているように、亡くなった人との保存された会話を使って「おばあちゃんに電話をかけ直す」チャットボットの作成が可能になり、そのような会話を聞いた後の人々の感情を理解するという意味でそれが可能になるだろう。

調査によると、一部の企業は、亡くなった人が残したデジタルフットプリントを利用して、チャットボットが故人の言語パターンや性格特性を模倣できる、ドラマ「ブラック・ミラー」のエピソード「Be Right Back」を彷彿とさせるサービスを提供しているという。

デジタルの尊厳を守るために安全規制が求められる

学術誌「哲学と技術」に掲載されたこの研究は、企業がデッドボットをどのように利用するかの例を示しており、例えば、亡くなった愛する人と同じように商品を宣伝したり、亡くなった親が「一緒にいる」と主張して子供たちにトラウマを与えたりすることが挙げられている。

しかし、いかなる場合でも、信頼できない企業や無謀な事業計画は、長期的な精神的ダメージや死者の権利の侵害につながる可能性があると論文は示唆している。

研究者らは、日常的な交流は圧倒的な感情的重圧を伴って起こると示唆している。彼らは、そのような感情的なサポートは、喪失に対処する自然な方法である悲嘆のプロセスを妨げる可能性もあると主張している。

倫理的な地雷原

ケンブリッジ大学レヴァーホルム未来知能センター(LCFI)の研究共著者の一人であるカタジナ・ノヴァチク・バシンスカ博士は、「生成AIの急速な進歩により、インターネットにアクセスでき、基本的な知識があれば、ほぼ誰でも亡くなった愛する人を生き返らせることができるようになりました」と述べています。

AI のこの分野は倫理的に危険な地雷原のようです。最も重要なことは、たとえばデジタル死後の世界プロバイダーのような営利目的のサービスによって死者の尊厳が侵害されないようにすることです。大きな問題は、オンラインのレガシー インフラストラクチャを広告を通じて商業化する企業から発生する可能性があります。

子どもたちをこのプロセスに巻き込むのは、最悪の結果に直面する可能性があるため、特に危険です。最近母親や父親を亡くした子どもたちを慰めたい親にとって、「デッドボット」という形での仲間がすぐに必要になるかもしれません。

悲嘆のプロセスへの影響

しかし、このような取り組みの適切性を示す研究はなく、通常の喪のプロセスに悪影響を与える可能性があることは言うまでもなく、非常に不快な影響をもたらす可能性があると考えるべきである。

研究論文によると、「いかなる再創造サービスも、子供たちに『デッドボット』との交流を許可することが有益であるか、少なくともこの脆弱なグループに害を及ぼさないことを証明することはできない。」

死者の尊厳と生者の精神的健康を確保するために、研究者らは、それらを規制する法律を制定するほどに活用できる一連のベストプラクティスを提案している。

こうしたプラットフォームには、デッドボットを「引退」させ、そのインタラクティブ機能を成人のみに制限し、フル稼働中の人工エンティティの限界を認識し、顧客に対して非常に透明性を保つためのプロトコルが必要です。

グローバルな展開と多様なアプリケーション

研究者によると、AIを使って死者の画像を低料金で生成できるプラットフォームがいくつか存在するという。例えば、最初はGPTモデルを使用し、後にそのシステムを使用したProject Decemberや、Hereafterなどのアプリもある。

同様に、この研究で示されたものと同じサービスを提供する中国企業も存在する。2021年、ジョシュア・バーボーはGPT-3を使用して、亡くなった恋人の声で話すチャットボットを開発し、世間の注目を集めた。2015年、ユージニア・クイダは亡くなった友人のテキストをチャットボットに変換し、それがReplikaと呼ばれる最も人気のあるAIコンパニオンアプリのきっかけとなった。

この技術はチャットボットだけにとどまりません。系図サイトMyHeritageは2021年に、ユーザーの先祖の写真からアニメーション動画を生成する機能「Deep Nostalgia」を導入しました。この機能が話題になるとすぐに、同社は多くのユーザーが不気味だと感じたことを認めざるを得ませんでした。こうした技術が徐々に進歩する中、開発を促進するためには倫理を念頭に置く以外に代替手段はありません。