El cofundador de Ethereum, Vitalik Buterin, compartió en Twitter su perspectiva única sobre AGI (inteligencia artificial general) y ASI (inteligencia artificial superinteligente), enfatizando que deberíamos enfocarnos en herramientas de IA en lugar de perseguir el desarrollo de entidades superinteligentes que reemplacen a los humanos. Él tiene un gran temor al desarrollo excesivo de AGI y ASI.

AGI es una inteligencia artificial que mantiene la civilización de manera independiente.

Vitalik define AGI como una IA bastante poderosa. Él afirma que si todos los humanos desaparecieran de repente y esta IA se instalara en un robot, podría funcionar de manera independiente y mantener el desarrollo de toda la civilización. Además, complementa que este concepto se actualizará desde la 'funcionalidad' de la IA tradicional a una forma de 'vida auto-sostenible'.

Vitalik señala que la tecnología actual no puede simular tales escenarios. No podemos realmente probar si la IA puede mantener la civilización sin humanos, y es aún más difícil definir los estándares de 'desarrollo civilizacional', qué condiciones representan que la civilización sigue funcionando, y estas preguntas son en sí mismas muy complejas, pero esta podría ser la principal fuente de distinción directa entre AGI y IA ordinaria.

(Nota: Forma de vida auto-sostenible, es decir, que puede obtener y utilizar recursos para mantener actividades vitales, adaptarse a cambios en el entorno y sobrevivir bajo ciertas condiciones.)

Enfatiza la importancia de las herramientas de asistencia inteligente, no para que la IA reemplace a los humanos.

Vitalik define la inteligencia artificial superinteligente (ASI) como cuando el progreso de la IA supera el valor que la participación humana puede proporcionar, alcanzando una etapa completamente autónoma y más eficiente. Él cita que el ajedrez realmente ha alcanzado esta etapa en la última década, ya que el nivel de la IA ha superado el mejor rendimiento logrado en cooperación entre humanos e IA, y admite que ASI le da miedo, ya que significa que la humanidad podría realmente perder el control sobre la IA.

Vitalik indica que, en lugar de desarrollar entidades superinteligentes, deberíamos centrarnos en desarrollar herramientas que puedan aumentar la inteligencia y las capacidades humanas. Él cree que la IA debería asistir a los humanos en lugar de reemplazarlos. Considera que esta línea de desarrollo puede reducir el riesgo de que la IA no sea controlable, al mismo tiempo que mejora la eficiencia y estabilidad de la sociedad en general.

(Amenaza de desempleo por IA generativa: ¿los trabajadores de Amazon serán completamente reemplazados por flotas de máquinas?)

Este artículo sobre el temor de Vitalik hacia AGI y ASI: la humanidad debe priorizar el enfoque en herramientas de mejora inteligente, no permitir que la IA reemplace a los humanos, apareció por primera vez en Chain News ABMedia.