Las empresas de inteligencia artificial OpenAI y Anthropic acordaron recientemente proporcionar al Instituto de Seguridad de IA de EE. UU. acceso temprano a cualquier nuevo modelo de IA "significativo" que desarrollen, informó Cointelegraph.
Aunque supuestamente el acuerdo se firmó por preocupaciones de seguridad compartidas, no está claro cuál será el papel específico del gobierno cuando los avances tecnológicos tengan importantes implicaciones para la seguridad.
El director ejecutivo y cofundador de OpenAI, Sam Altman, dijo en la plataforma de redes sociales X que el acuerdo era un paso necesario y enfatizó la necesidad de que Estados Unidos continúe liderando a nivel nacional.
Tanto OpenAI como Anthropic están comprometidos con el desarrollo de inteligencia artificial general (AGI), que es una IA que puede completar cualquier tarea con recursos humanos. Cada empresa tiene sus propios estatutos y misión para crear AGI de forma segura teniendo en cuenta el beneficio humano.
Al firmar un acuerdo con el gobierno de EE. UU. para revelar sus modelos antes de que se lance un producto, las empresas están entregando esa responsabilidad al gobierno federal.
OpenAI puede estar al borde de un gran avance, con sus proyectos “Strawberry” y “Orion” supuestamente capaces de realizar razonamiento avanzado y resolver problemas de alucinaciones en IA, informa Cointelegraph. El gobierno de EE. UU. ya ha visto estas herramientas y sus primeras iteraciones internas en ChatGPT.
Una publicación de blog del Instituto Nacional de Estándares y Tecnología indica que el acuerdo y la guía de seguridad asociada son voluntarios para las empresas participantes. Los partidarios argumentan que una regulación tan ligera ayuda al crecimiento y permite que la industria se regule a sí misma.
Sin embargo, uno de los problemas potenciales de una regulación laxa es la falta de transparencia. Si OpenAI o Anthropic tienen éxito, no existe ningún requisito legal para revelarlos si el gobierno decide que el público no necesita saberlo.