KI-Experten warnen davor, dass tote KI oder digitale Wiederbelebungen von Verstorbenen bald Realität werden. Daher muss dieses Thema reguliert werden, um zu verhindern, dass Menschen durch die „Heimat“ ihrer Schöpfer und Nutzer psychischen Schaden erleiden.

Ein Beispiel für solche Dienste, die technisch möglich und rechtlich zulässig sind, wäre die Erstellung von Chatbots, die gespeicherte Gespräche mit einem verlorenen Gespräch nutzen, um „Oma zurückzurufen“ in dem Sinne, dass sie die Emotionen der Menschen nach dem Anhören solcher Gespräche verstehen, wie die Wissenschaftler der Universität Cambridge erklärten.

Einige Unternehmen bieten Dienste an, die an die Black Mirror-Folge „Be Right Back“ erinnern. Dort kann ein Chatbot Sprachmuster und Persönlichkeitsmerkmale einer verstorbenen Person imitieren, indem er den digitalen Fußabdruck einer verstorbenen Person verwendet, heißt es in der Studie.

Sicherheitsvorschriften zum Schutz der digitalen Würde gefordert

Die im Fachjournal „Philosophy and Technology“ veröffentlichte Studie präsentiert Beispiele dafür, wie Unternehmen Deadbots einsetzen können, etwa um Produkte bei einer Person auf ähnliche Weise zu bewerben wie bei einem verstorbenen geliebten Menschen oder um Kinder zu traumatisieren, indem sie behaupten, ein toter Elternteil sei „bei ihnen“.

In allen Fällen könne es jedoch dazu kommen, dass unseriöse Unternehmen und rücksichtslose Geschäftsinitiativen langfristige psychische Schäden hinterlassen und die Rechte der Verstorbenen verletzen, heißt es in dem Papier.

Die Forscher vermuten, dass alltägliche Interaktionen mit einer überwältigenden emotionalen Belastung einhergehen. Sie behaupten, dass eine solche emotionale Unterstützung auch den Trauerprozess behindern kann, eine natürliche Art, mit dem Verlust umzugehen.

Ein ethisches Minenfeld

Dr. Katarzyna Nowaczyk-Basińska, eine der Co-Autorinnen der Studie am Leverhulme Centre for the Future of Intelligence (LCFI) in Cambridge, erklärte: „Die rasanten Fortschritte in der generativen KI bedeuten, dass praktisch jeder mit Internetzugang und etwas Grundwissen einen verstorbenen Angehörigen wiederbeleben kann.“

Dieser Bereich der KI scheint ein ethisches Minenfeld zu sein. Das Wichtigste ist sicherzustellen, dass die Würde des Verstorbenen nicht durch gewinnorientierte Dienste wie beispielsweise Anbieter digitaler Nachsorgedienste verletzt wird. Das größte Problem könnten Unternehmen sein, die ihre Online-Infrastruktur für das Verstorbene durch Werbung kommerzialisieren.

Besonders riskant ist es, Kinder in den Prozess einzubeziehen, denn sie könnten die schlimmsten Folgen erleiden. Die Begleitung durch „Deadbots“ könnte für Eltern, die ihre Kinder trösten möchten, die kürzlich ihre Mutter oder ihren Vater verloren haben, bald notwendig werden.

Auswirkungen auf den Trauerprozess

Es liegen jedoch keine Studien vor, die die Eignung solcher Maßnahmen belegen. Daher sollte man bedenken, dass sie sehr unangenehme Auswirkungen haben könnten, ganz zu schweigen von der Tatsache, dass sie den normalen Trauerprozess negativ beeinträchtigen könnten.

Laut der Forschungsarbeit „kann kein Nachbildungsdienst beweisen, dass es für diese gefährdete Gruppe von Vorteil ist, Kindern die Interaktion mit ‚Deadbots‘ zu erlauben, oder dass dieser zumindest nicht schadet.“

Um die Würde der Toten und das psychische Wohlbefinden der Lebenden zu gewährleisten, schlagen die Forscher eine Reihe bewährter Vorgehensweisen vor, die bis hin zur Verabschiedung entsprechender Gesetze reichen können.

Diese Plattformen benötigen Protokolle für die „Außerdienststellung“ von Deadbots, die Beschränkung ihrer interaktiven Funktionen auf Erwachsene, die Anerkennung der Beschränkungen jeder voll funktionsfähigen künstlichen Entität und eine hohe Transparenz gegenüber den Kunden.

Globale Reichweite und vielfältige Anwendungen

Den Forschern zufolge gibt es einige Plattformen, auf denen man mit Hilfe von KI gegen geringe Kosten ein Bild einer toten Person erstellen kann. So gibt es etwa Project December, das zunächst GPT-Modelle verwendete und später deren Systeme nutzte, und es gibt auch Apps wie Hereafter.

Ebenso gibt es chinesische Kollegen mit den gleichen Diensten, die in der Studie angegeben sind. Im Jahr 2021 erregte Joshua Barbeau öffentliche Aufmerksamkeit, als er mithilfe von GPT-3 einen Chatbot entwickelte, der mit der Stimme seiner verstorbenen Freundin sprach. Im Jahr 2015 verwandelte Eugenia Kuyda die Texte ihrer verstorbenen Freundin in einen Chatbot, was wiederum zur beliebtesten KI-Begleit-App namens Replika führte.

Die Technologie ist auch nicht auf Chatbots beschränkt. MyHeritage, die Genealogie-Website, brachte 2021 Deep Nostalgia, eine Funktion, die animierte Videos aus einzelnen Bildern mit den Vorfahren der Benutzer generierte. Sobald die Funktion viral ging, musste das Unternehmen zugeben, dass viele Benutzer sie unheimlich fanden. Mit der schrittweisen Weiterentwicklung dieser Technologien gibt es keine Alternative, als die Ethik im Auge zu behalten, um die Entwicklung zu erleichtern.