El cofundador de Ethereum, Vitalik Buterin, ha levantado alarmas sobre los riesgos asociados con la IA superinteligente y la necesidad de un mecanismo de defensa sólido.
Los comentarios de Buterin llegan en un momento en que, con el rápido desarrollo de la inteligencia artificial, las preocupaciones sobre la seguridad de la IA han crecido significativamente.
Plan de Regulación de IA de Buterin: Responsabilidad, Botones de Pausa y Control Internacional
En una publicación de blog con fecha del 5 de enero, Vitalik Buterin esbozó su idea detrás de ‘d/acc o aceleración defensiva’, donde la tecnología debería desarrollarse para defender en lugar de causar daño. Sin embargo, esta no es la primera vez que Buterin ha hablado sobre los riesgos asociados con la Inteligencia Artificial.
“Una forma en que la IA podría salir mal y empeorar el mundo es (casi) la peor manera posible: podría causar literalmente la extinción humana”, dijo Buterin en 2023.
Buterin ahora ha dado seguimiento a sus teorías de 2023. Según Buterin, la superinteligencia está potencialmente a solo unos pocos años de existencia.
“Parece probable que tengamos un plazo de tres años hasta la AGI y otros tres años hasta la superinteligencia. Y así, si no queremos que el mundo sea destruido o caiga en una trampa irreversible, no podemos simplemente acelerar lo bueno, también tenemos que frenar lo malo”, escribió Buterin.
Para mitigar los riesgos relacionados con la IA, Buterin aboga por la creación de sistemas de IA descentralizados que permanezcan estrechamente vinculados a la toma de decisiones humanas. Al garantizar que la IA siga siendo una herramienta en manos de los humanos, se puede minimizar la amenaza de resultados catastróficos.
Buterin luego explicó cómo los militares podrían ser los actores responsables de un escenario de ‘fatalidad de la IA’. El uso militar de la IA está en aumento a nivel mundial, como se vio en Ucrania y Gaza. Buterin también cree que cualquier regulación de la IA que entre en efecto probablemente eximiría a los militares, lo que los convierte en una amenaza significativa.
El cofundador de Ethereum delineó aún más sus planes para regular el uso de la IA. Dijo que el primer paso para evitar los riesgos asociados con la IA es hacer a los usuarios responsables.
“Si bien el vínculo entre cómo se desarrolla un modelo y cómo termina siendo utilizado a menudo no está claro, el usuario decide exactamente cómo se utiliza la IA”, explicó Buterin, destacando el papel desempeñado por los usuarios.
Si las reglas de responsabilidad no funcionan, el siguiente paso sería implementar botones de “pausa suave” que permitan que la regulación de la IA desacelere el ritmo de los avances potencialmente peligrosos.
“El objetivo sería tener la capacidad de reducir el cómputo disponible a nivel mundial en un ~90-99% durante 1-2 años en un período crítico, para ganar más tiempo para que la humanidad se prepare.”
Dijo que la pausa puede ser implementada por la verificación y registro de ubicación de la IA.
Otro enfoque sería controlar el hardware de la IA. Buterin explicó que el hardware de la IA podría estar equipado con un chip para controlarlo.
El chip permitirá que los sistemas de IA funcionen solo si reciben tres firmas de organismos internacionales semanalmente. Además, agregó que al menos uno de los organismos debería no estar afiliado a lo militar.
No obstante, Buterin admitió que sus estrategias tienen fallos y son solo ‘soluciones temporales’.