Según Cointelegraph, las empresas de inteligencia artificial OpenAI y Anthropic acordaron otorgar al Instituto de Seguridad de la IA de EE. UU. acceso anticipado a cualquier nuevo modelo de IA significativo desarrollado por sus respectivas empresas. Este acuerdo, impulsado por preocupaciones mutuas de seguridad, deja un tanto ambiguo el papel exacto del gobierno en caso de un avance tecnológico significativo.
El director ejecutivo y cofundador de OpenAI, Sam Altman, destacó la importancia de este acuerdo en una publicación reciente en la plataforma de redes sociales X, donde afirmó: “Estamos felices de haber llegado a un acuerdo con el Instituto de Seguridad de la IA de EE. UU. para realizar pruebas previas al lanzamiento de nuestros futuros modelos. Por muchas razones, creemos que es importante que esto suceda a nivel nacional. ¡Estados Unidos debe seguir liderando!”.
Tanto OpenAI como Anthropic se centran en el desarrollo de la inteligencia artificial general (IAG), una forma de IA capaz de realizar cualquier tarea que un ser humano pueda realizar, si se le proporcionan los recursos necesarios. Cada empresa tiene su propio estatuto y misión, cuyo objetivo es crear una IA de forma segura, teniendo como eje central los intereses de la humanidad. Si alguna de las dos empresas tiene éxito, se convertirán en guardianes clave de esta tecnología avanzada. Al aceptar compartir sus modelos con el gobierno de Estados Unidos antes del lanzamiento de cualquier producto, ambas empresas han transferido efectivamente parte de esta responsabilidad a las autoridades federales.
Como informó recientemente Cointelegraph, OpenAI podría estar cerca de lograr un gran avance con sus proyectos “Strawberry” y “Orion”, que se dice que poseen capacidades de razonamiento avanzadas y nuevos métodos para abordar el problema de las alucinaciones de la IA. Según se informa, el gobierno de los EE. UU. ya ha revisado estas herramientas y las primeras iteraciones de ChatGPT que las incorporan.
Un artículo publicado en el blog del Instituto Nacional de Normas y Tecnología de Estados Unidos indica que las normas de seguridad asociadas con este acuerdo son voluntarias para las empresas participantes. Los defensores de este enfoque regulatorio laxo argumentan que fomenta el crecimiento y permite al sector autorregularse. Los partidarios, entre ellos Altman, ven este acuerdo como un modelo de cómo la cooperación entre el gobierno y el sector corporativo puede ser mutuamente beneficiosa.
Sin embargo, existen preocupaciones sobre la posible falta de transparencia asociada con una regulación poco estricta. Si OpenAI o Anthropic logran sus objetivos de IAG y el gobierno decide que no es necesario informar al público, no parece haber ningún requisito legal para la divulgación.