Vitalik Buterin, cofundador de Ethereum, ha expresado su preocupación por el rápido desarrollo de la inteligencia artificial (IA), advirtiendo que la IA superinteligente podría surgir antes de lo esperado. Buterin enfatiza la urgente necesidad de estrategias para contrarrestar riesgos potenciales, centrándose en lo que él llama "aceleración defensiva" para asegurar que la tecnología de IA se utilice de manera responsable.

En una publicación de blog del 5 de enero, Buterin esbozó sus propuestas para prevenir avances dañinos en la IA. Aboga por sistemas de IA descentralizados estrechamente vinculados a la toma de decisiones humanas, con el objetivo de reducir el riesgo de abuso, particularmente por fuerzas militares. Destaca la creciente tendencia global de la IA en la guerra, citando ejemplos como su despliegue en Ucrania y Gaza, y advierte que las exenciones militares en las regulaciones de IA podrían representar amenazas significativas.

Buterin estima que la inteligencia general artificial (AGI) podría estar a solo tres años de distancia, con la superinteligencia potencialmente emergiendo tres años después de eso. Enfatiza que la humanidad no puede simplemente acelerar los avances beneficiosos, sino que también debe frenar activamente los desarrollos perjudiciales. Describe un escenario donde la IA sin control podría llevar a resultados catastróficos, incluida la posibilidad de extinción humana.

Para abordar estos riesgos, Buterin sugiere varias medidas. Primero, hace un llamado a establecer reglas de responsabilidad para hacer que los usuarios sean responsables de cómo se utilizan los sistemas de IA. Si bien reconoce la complejidad de vincular el desarrollo de la IA con su uso, argumenta que los usuarios finales son los que en última instancia deciden las aplicaciones de la tecnología.

Si las medidas de responsabilidad resultan insuficientes, Buterin propone mecanismos de "pausa suave". Estos ralentizarían temporalmente el desarrollo de sistemas de IA peligrosos, potencialmente reduciendo la capacidad de cómputo global en un 90-99% durante uno a dos años en períodos críticos. Esto daría a la humanidad tiempo para prepararse para los desafíos emergentes.

Otra sugerencia clave implica controlar el hardware de la IA. Buterin propone integrar chips en los sistemas de IA que requieran autorización semanal de tres organismos internacionales, siendo al menos uno no militar. Esta medida tiene como objetivo mantener la supervisión global y prevenir el abuso.

A pesar de presentar estas ideas, Buterin reconoce que sus estrategias son temporales e imperfectas. Sin embargo, insiste en que es necesario actuar de inmediato para gestionar los riesgos que plantean las tecnologías de IA que avanzan rápidamente.

Las advertencias de Buterin llegan en un momento de creciente preocupación por la seguridad de la IA, destacando la necesidad de cooperación global para abordar estos problemas apremiantes. Al asegurar que la IA permanezca bajo control humano, se pueden minimizar los riesgos de resultados catastróficos, pero lograr esto requerirá un esfuerzo colectivo y vigilancia.