Los expertos en IA advierten que la IA muerta, o las reanimaciones digitales de los fallecidos, están a punto de convertirse en realidad. Por lo tanto, debe haber una regulación de este tema para evitar que las personas sufran daños psicológicos debido al “embrujo” de sus creadores y usuarios.

Un ejemplo de este tipo de servicios, tecnológicamente posible y legalmente permitido, permitiría la creación de chatbots que utilicen conversaciones guardadas con una persona perdida para "llamar a la abuela" en el sentido de comprender las emociones de las personas después de escuchar dichas conversaciones, como afirma la Universidad. de los científicos de Cambridge

Algunas empresas ofrecen servicios de una manera que recuerda al episodio "Be Right Back" de Black Mirror, que permite a un chatbot imitar patrones de lenguaje y rasgos de personalidad de una persona fallecida utilizando la huella digital que ha dejado, según la investigación.

Instan normas de seguridad para proteger la dignidad digital

El estudio, publicado en la revista Philosophy and Technology, presenta ejemplos de cómo las empresas pueden utilizar los deadbots, como por ejemplo para anunciar productos a una persona de forma similar a la de un ser querido fallecido o para traumatizar a niños afirmando que un muerto El padre está “contigo”.

Sin embargo, en todos los casos, las empresas no confiables y las iniciativas comerciales imprudentes pueden provocar daños psicológicos a largo plazo y una violación de los derechos del fallecido, sugiere el documento.

Los investigadores sugieren que las interacciones diarias ocurren con un peso emocional abrumador. Afirman que ese apoyo emocional también puede obstaculizar el proceso de duelo, una forma natural de afrontar la pérdida.

Un campo minado ético

La Dra. Katarzyna Nowaczyk-Basińska, una de las coautoras del estudio en el Centro Leverhulme para el Futuro de la Inteligencia (LCFI) de Cambridge, afirmó: "Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido". uno."

Esta área de la IA parece ser un campo minado ético. Lo más esencial es garantizar que la dignidad del difunto no sea violada por servicios con fines de lucro, como los proveedores digitales de vida futura, por ejemplo. El problema principal puede surgir de las empresas que comercializarán su infraestructura heredada en línea a través de anuncios.

Es particularmente riesgoso involucrar a los niños en el proceso porque pueden enfrentar el peor resultado. La compañía en forma de “robots muertos” pronto será necesaria para los padres que buscan consolar a sus hijos que recientemente perdieron a sus mamás o papás.

Impacto en el proceso de duelo

Sin embargo, no existen estudios que puedan indicar la idoneidad de tales esfuerzos, lo que hace pensar en su posible impacto, que podría ser muy desagradable, sin mencionar el hecho de que podría interferir negativamente con el proceso normal de duelo.

Según el artículo de investigación, "Ningún servicio de recreación puede demostrar que permitir que los niños interactúen con 'robots muertos' sea beneficioso o, al menos, no perjudique a este grupo vulnerable".

Para garantizar la dignidad de los muertos y el bienestar psicológico de los vivos, los investigadores proponen una serie de mejores prácticas que pueden utilizarse incluso hasta el punto de elaborar leyes para regularlas.

Esas plataformas necesitan protocolos para “retirar” los deadbots, limitar sus funciones interactivas solo a adultos, reconocer las limitaciones de cualquier entidad artificial en pleno funcionamiento y ser muy transparentes con los clientes.

Alcance global y aplicaciones variadas

Según los investigadores, existen algunas plataformas en las que se puede generar la imagen de una persona muerta con IA por un coste modesto. Por ejemplo, está el Proyecto Diciembre, que inicialmente utilizó modelos GPT y luego utilizó sus sistemas, y también hay aplicaciones como Hereafter.

Asimismo, existen homólogos chinos con los mismos servicios indicados en el estudio. En 2021, Joshua Barbeau llamó la atención del público cuando utilizó GPT-3 para desarrollar un chatbot que hablaba con la voz de su novia, que había fallecido. En 2015, Eugenia Kuyda convirtió los mensajes de texto de su amiga fallecida en un chatbot, dando paso a la aplicación complementaria de IA más popular llamada Replika.

La tecnología tampoco se limita a los chatbots. MyHeritage, el sitio de genealogía, trajo en 2021 Deep Nostalgia, una función que generaba videos animados a partir de imágenes individuales con los antepasados ​​de los usuarios. Tan pronto como la función se volvió viral, la compañía tuvo que admitir que muchos usuarios pensaron que era espeluznante. Con el avance gradual de esas tecnologías, no hay otro medio que tener en cuenta la ética para facilitar el desarrollo.