Líderes de IA advierten sobre "riesgo de extinción" en una carta abierta

El Centro para la Seguridad de la IA (CAIS) publicó recientemente una declaración firmada por figuras prominentes en el campo de la inteligencia artificial, destacando los peligros potenciales que representa la tecnología para la humanidad.

La declaración afirma que "mitigar el riesgo de extinción debido a la IA debería ser una prioridad global, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".

Investigadores de renombre y ganadores del Premio Turing, incluidos Geoffery Hinton y Yoshua Bengio, así como ejecutivos de OpenAI y DeepMind, como Sam Altman, Ilya Sutskever y Demis Hassabis, firmaron la declaración.

El objetivo de la carta del CAIS es iniciar debates sobre los riesgos urgentes asociados con la IA. La carta ha obtenido tanto apoyo como críticas dentro de la industria en general. Sigue a una carta abierta anterior firmada por Elon Musk, Steve Wozniak y más de 1.000 expertos más, que pidieron detener el desarrollo "fuera de control" de la IA.

A pesar de su brevedad, la reciente declaración no proporciona detalles específicos sobre la definición de IA ni ofrece estrategias concretas para mitigar los riesgos. Sin embargo, CAIS aclaró en un comunicado de prensa que su objetivo es establecer salvaguardias e instituciones que gestionen eficazmente los riesgos de la IA.

El director ejecutivo de OpenAI, Sam Altman, ha estado interactuando activamente con líderes globales, abogando por regulaciones de IA. Durante una reciente aparición ante el Senado, Altman instó repetidamente a los legisladores a regular fuertemente la industria. La declaración de CAIS se alinea con sus esfuerzos por crear conciencia sobre los peligros de la IA.

Si bien la carta abierta ha generado atención, algunos expertos en ética de la IA han criticado la tendencia a emitir este tipo de declaraciones.

La Dra. Sasha Luccioni, científica investigadora del aprendizaje automático, sugiere que mencionar riesgos hipotéticos de la IA junto con riesgos tangibles como pandemias y cambio climático mejora la credibilidad de la primera, al tiempo que desvía la atención de cuestiones inmediatas como el sesgo, las impugnaciones legales y el consentimiento.

Daniel Jeffries, escritor y futurista, sostiene que discutir los riesgos de la IA se ha convertido en un juego de estatus, en el que los individuos se suben al carro sin incurrir en ningún costo real.

Los críticos sostienen que firmar cartas abiertas sobre amenazas futuras permite a los responsables de los daños actuales de la IA aliviar su culpa y al mismo tiempo descuidar los problemas éticos asociados con las tecnologías de IA que ya están en uso.

Sin embargo, CAIS, una organización sin fines de lucro con sede en San Francisco, sigue centrada en reducir los riesgos a escala social derivados de la IA a través de la investigación y la promoción técnicas. La organización fue cofundada por expertos con experiencia en informática y un gran interés en la seguridad de la IA.

Mientras que algunos investigadores temen el surgimiento de una IA superinteligente que supere las capacidades humanas y represente una amenaza existencial, otros argumentan que firmar cartas abiertas sobre hipotéticos escenarios apocalípticos distrae la atención de los dilemas éticos existentes en torno a la IA. Destacan la necesidad de abordar los problemas reales que plantea la IA hoy en día, como la vigilancia, los algoritmos sesgados y la vulneración de los derechos humanos.

Equilibrar el avance de la IA con una implementación y regulación responsables sigue siendo una tarea crucial para investigadores, formuladores de políticas y líderes de la industria por igual.