Vitalik Buterin suena la alarma: La amenaza inminente de la IA superinteligente

Imagina un mundo donde la inteligencia artificial supera la inteligencia humana, llevando a resultados catastróficos, incluida la posibilidad de extinción humana. Esta no es una escena de una película de ciencia ficción; es una preocupación real planteada por el cofundador de Ethereum, Vitalik Buterin. A medida que la tecnología de IA avanza rápidamente, Buterin está instando al mundo a tomar medidas y desarrollar un mecanismo de defensa sólido contra los riesgos asociados con la IA superinteligente.

Los riesgos del crecimiento descontrolado de la IA

Las advertencias de Buterin llegan en un momento en que las preocupaciones sobre la seguridad de la IA están creciendo exponencialmente. En una reciente publicación de blog, esbozó su concepto de “d/acc o aceleración defensiva”, que enfatiza la necesidad de que la tecnología se desarrolle con la defensa en mente, en lugar de centrarse únicamente en el progreso. Esta no es la primera vez que Buterin habla sobre los riesgos de la IA; en 2023, destacó el potencial de la IA para causar la extinción humana.

Una línea de tiempo de tres años hacia la superinteligencia

Las últimas advertencias de Buterin son más urgentes que nunca, ya que él cree que la superinteligencia podría estar a solo unos años de distancia. “Parece probable que tengamos líneas de tiempo de tres años hasta la AGI y otros tres años hasta la superinteligencia”, escribió. Esta línea de tiempo subraya la necesidad de una acción inmediata para mitigar los riesgos relacionados con la IA.

Sistemas de IA descentralizados: Una solución potencial

Para minimizar la amenaza de resultados catastróficos, Buterin aboga por la creación de sistemas de IA descentralizados que permanezcan estrechamente vinculados a la toma de decisiones humanas. Al asegurarnos de que la IA siga siendo una herramienta en manos humanas, podemos reducir el riesgo de consecuencias devastadoras.

El papel de los militares en la regulación de la IA

Buterin también destaca los riesgos potenciales asociados con el uso militar de la IA, que está en aumento a nivel mundial. Él cree que cualquier regulación de IA probablemente eximiría a los militares, convirtiéndolos en una amenaza significativa. Esto plantea preguntas importantes sobre la necesidad de cooperación y regulación internacional en el desarrollo y uso de la IA.

Un plan de tres pasos para regular la IA

Buterin propone un plan de tres pasos para regular el uso de la IA:

1. Responsabilidad: Hacer que los usuarios sean responsables de las consecuencias del uso de la IA. Al responsabilizar a los usuarios, podemos fomentar un desarrollo y despliegue de IA más responsable. 2. Botones de Pausa Suave: Implementar botones de “pausa suave” que permitan a la regulación de la IA frenar el ritmo de los avances potencialmente peligrosos. Esto podría implicar reducir la capacidad computacional disponible en el mundo en un 90-99% durante 1-2 años para comprar tiempo para que la humanidad se prepare. 3. Control Internacional: Controlar el hardware de la IA equipándolo con un chip que requiera tres firmas de organismos internacionales semanalmente, incluyendo al menos un organismo no afiliado a lo militar.

Soluciones temporales, no soluciones permanentes

Buterin reconoce que sus estrategias tienen fallas y son solo soluciones temporales. Sin embargo, enfatiza la necesidad de una acción inmediata para mitigar los riesgos relacionados con la IA.

A medida que el mundo avanza hacia un futuro donde la IA supera la inteligencia humana, es esencial tomar en serio las advertencias de Buterin. ¿Seremos capaces de desarrollar un mecanismo de defensa sólido contra los riesgos asociados con la IA superinteligente, o sucumbiremos a los peligros del crecimiento descontrolado de la IA? El tiempo corre.

Fuente: Beincrypto.com

La publicación del plan de regulación de IA de Vitalik Buterin: Responsabilidad y Control apareció primero en CoinBuzzFeed.