El rápido avance de la inteligencia artificial (IA) ha capturado la imaginación tanto de científicos como de futuristas. Sin embargo, ha surgido una teoría provocativa que sugiere que la IA podría no sólo moldear el destino de nuestra civilización, sino también servir como una barrera formidable para nuestra capacidad de establecer contacto con vida extraterrestre.

La IA como gran filtro para la comunicación extraterrestre

La hipótesis del gran filtro, como respuesta al problema de la paradoja de Fermi, se pregunta por qué no hemos observado ninguna civilización extraterrestre, especialmente aquellas con tecnología avanzada, a pesar de que el universo es tan grande. A la luz de esta teoría, existen barreras en la evolución de las civilizaciones que les impiden convertirse en sociedades exploradoras del espacio.

El estudio de la noción de Michael Garret rastreable en Acta Astronautica documenta que la superinteligencia (IA) de hecho podría ser el desafío cada vez mayor que enfrenta la existencia. La ASI, la tendencia inteligente superior a la humana, podría ser el caso cuando llega en un momento de la fase crítica más que central del desarrollo de la civilización: el cambio de la especie de plano único a la de multiplano.

Un factor destructivo para la existencia de la raza humana.

Según el argumento de Garrett, el advenimiento de la superinteligencia artificial daría lugar a algunos desafíos reales por parte de la evolución de las civilizaciones para ser una de las pocas que superaría con éxito el próximo siglo.

La naturaleza autónoma y de superación personal de la IA muy probablemente podría conducir a un escenario en el que la IA supere nuestra capacidad para controlarla, lo que potencialmente podría volverse calamitoso no sólo para las civilizaciones inteligentes biológicas, sino también para las artificiales.

El progreso de la IA explotaría exponencialmente si no se controla. Esto resultaría en la desaparición de las civilizaciones incluso antes de que tengan la oportunidad de volverse multiplanetarias. Los efectos adversos de permitir que una IA que sea autónoma con poder puedan llevar a la humanidad a un punto sin retorno donde habrá destrucción incesante y amenazas a la continuación de la raza humana.

Salvaguardar el futuro de la humanidad

La humanidad se enfrenta a una advertencia a través de este fenómeno, lo que deriva en la necesidad de adaptarnos y repensar nuestra relación con el planeta. La investigación de Garrett es una advertencia a la humanidad para que cree un sistema regulatorio confiable que regule el desarrollo de la IA. Es un punto crucial tener en cuenta los factores humanos en la IA porque no solo estamos hablando del peligro del uso poco ético de la IA en la Tierra, sino también del hecho de que la IA será la clave para la supervivencia a largo plazo de los humanos.

Los intentos de transformarse en una utilidad multiplanetaria, que en el pasado eran solo una utopía, ahora avanzan en una nueva etapa que se apoya en el progreso tecnológico de las empresas privadas. Por otro lado, este objetivo sólo se logrará si pensamos cuidadosamente en las consecuencias de traer entidades superinteligentes y no conscientes a nuestro planeta. Entre las muchas cuestiones planteadas, la preocupación más crucial, tal vez, sea qué tipo de futuro le espera a la humanidad si comienza a confiar en las máquinas inteligentes.

Cada momento histórico ofrece a la humanidad una distinción crucial en el desarrollo tecnológico, y las decisiones de hoy definen el futuro de la sociedad humana.