Vitalik Buterin IA

El cofundador de Ethereum (ETH), Vitalik Buterin, ha expresado su preocupación por los riesgos asociados con la inteligencia artificial (IA) súper inteligente y la necesidad de un mecanismo de defensa fuerte.

Los comentarios de Buterin llegan en un momento en el que, con el rápido desarrollo de la inteligencia artificial, las preocupaciones por la seguridad han aumentado significativamente.

Plan de regulación de la IA de Buterin

En una publicación de blog del 5 de enero, Vitalik Buterin describió su idea detrás de 'd/acc o aceleración defensiva', donde la tecnología debería desarrollarse para defender en lugar de causar daño. En este sentido, esta no es la primera vez que Buterin aborda los riesgos asociados a la Inteligencia Artificial. 

Una forma en que la IA podría salir mal y empeorar el mundo es (casi) de la peor manera posible: literalmente podría causar la extinción humana, dijo Buterin en 2023.

Además, Buterin continúa con sus teorías sobre el año 2023. Según él, la superinteligencia está potencialmente a sólo unos años de distancia. 

Parece probable que tengamos plazos de tres años hasta la AGI y otros tres años hasta la superinteligencia. Por eso, si no queremos que el mundo sea destruido o caiga en una trampa irreversible, no podemos simplemente acelerar el bien, sino que también debemos frenar el mal, escribió Buterin.

Para mitigar los riesgos relacionados con la IA, el cofundador de Ethereum aboga por la creación de sistemas de IA descentralizados que permanezcan estrechamente vinculados a la toma de decisiones humana. Al garantizar que la IA siga siendo una herramienta en manos de los humanos, se puede minimizar la amenaza de resultados catastróficos.

Buterin luego explicó cómo los militares podrían ser responsables de un escenario de "desaparición de la IA". El uso militar de la IA está aumentando a nivel mundial, como se ve en Ucrania y Gaza. Buterin también cree que cualquier regulación sobre IA que entre en vigor probablemente eximiría a los militares, lo que la convertiría en una amenaza importante.

El cofundador de Ethereum describió con más detalle sus planes para regular el uso de la tecnología. Dijo que el primer paso para evitar los riesgos asociados con la IA es responsabilizar a los usuarios.

Si bien el vínculo entre cómo se desarrolla un modelo y cómo termina utilizándose a menudo no está claro, el usuario decide exactamente cómo se utiliza la IA, explicó Buterin, destacando el papel que desempeñan los usuarios.

Si las reglas de responsabilidad no funcionan, el siguiente paso sería implementar botones de “pausa suave” que permitan que la regulación de la IA desacelere el ritmo de avances potencialmente peligrosos.

El objetivo sería tener la capacidad de reducir la informática disponible en todo el mundo en aproximadamente un 90-99% durante 1-2 años en un período crítico, para ganar más tiempo para que la humanidad se prepare.

Dijo que es posible implementar la pausa verificando y registrando la ubicación de la IA. Por lo tanto, otro enfoque sería controlar el hardware de la IA. Buterin explicó que un chip podría equipar hardware de IA para controlarlo.

El chip permitirá que los sistemas de inteligencia artificial funcionen sólo si reciben tres firmas semanales de organismos internacionales. Además, agregó que al menos uno de los cuerpos debe ser no militar.

Sin embargo, Buterin admitió que sus estrategias son defectuosas y son sólo "soluciones temporales".

El artículo Vitalik Buterin advierte: La IA superinteligente podría llegar pronto fue visto por primera vez en BeInCrypto Brasil.