El Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos, parte del Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio de Estados Unidos, ha anunciado nuevos acuerdos destinados a impulsar la investigación y la evaluación de la seguridad de la IA. Estos acuerdos, formalizados a través de memorandos de entendimiento (MOU), establecen un marco de colaboración con dos empresas líderes en IA, Anthropic y OpenAI. Las asociaciones están diseñadas para facilitar el acceso a nuevos modelos de IA de ambas empresas, lo que permite al instituto realizar evaluaciones exhaustivas tanto antes como después de que estos modelos se publiquen públicamente.

Los memorandos de entendimiento permiten al Instituto de Seguridad de la IA de EE. UU. participar en investigaciones colaborativas con Anthropic y OpenAI, centrándose en la evaluación de las capacidades de la IA y la identificación de riesgos de seguridad. Se espera que esta colaboración haga avanzar las metodologías para mitigar los riesgos potenciales asociados con los sistemas avanzados de IA. Elizabeth Kelly, directora del Instituto de Seguridad de la IA de EE. UU., enfatizó que la seguridad es un componente crítico de la innovación tecnológica y expresó su expectativa por las próximas colaboraciones técnicas con estas empresas de IA. Señaló que estos acuerdos representan un hito importante en los esfuerzos continuos del instituto para guiar el desarrollo responsable de la IA.

Además de estas colaboraciones, el Instituto de Seguridad de la IA de Estados Unidos proporcionará comentarios a Anthropic y OpenAI sobre posibles mejoras de seguridad para sus modelos. Este trabajo se llevará a cabo en estrecha colaboración con el Instituto de Seguridad de la IA del Reino Unido, lo que refleja un esfuerzo internacional más amplio para garantizar el desarrollo seguro y confiable de las tecnologías de IA.

Los esfuerzos del Instituto de Seguridad de la IA de EE. UU. se basan en la larga trayectoria del NIST en materia de avances en materia de ciencia, tecnología y estándares de medición. Las evaluaciones realizadas en virtud de estos acuerdos contribuirán a las iniciativas de IA más amplias del NIST, que están alineadas con la Orden Ejecutiva sobre IA de la administración Biden-Harris. El objetivo es respaldar el desarrollo seguro y confiable de sistemas de IA, basándose en los compromisos voluntarios asumidos por los principales desarrolladores de IA ante la administración.

Según un informe de Reuters, el miércoles los legisladores de California aprobaron un controvertido proyecto de ley sobre seguridad de la IA, que ahora espera la decisión del gobernador Gavin Newsom. Newsom, demócrata, tiene hasta el 30 de septiembre para vetar el proyecto de ley o convertirlo en ley. La legislación exige pruebas de seguridad y otras salvaguardas para los modelos de IA que superen ciertos costos o capacidad de procesamiento, una medida que algunas empresas tecnológicas sostienen que podría obstaculizar la innovación.

Imagen destacada vía Pixabay