Según Cointelegraph, los países industriales del Grupo de los Siete (G7) acordarán un código de conducta de inteligencia artificial (IA) para desarrolladores el 30 de octubre. El código consta de 11 puntos destinados a promover una IA "segura, protegida y confiable". en todo el mundo" y ayudar a "aprovechar" los beneficios de la IA mientras se abordan y solucionan los riesgos que plantea. El plan fue redactado por los líderes del G7 en septiembre y ofrece orientación voluntaria para las organizaciones que desarrollan sistemas avanzados de IA, incluidos modelos básicos y sistemas generativos de IA.

El código también sugiere que las empresas deberían publicar informes sobre las capacidades, limitaciones, uso y mal uso de los sistemas que están construyendo, y recomienda controles de seguridad sólidos para estos sistemas. Los países del G7 incluyen Canadá, Francia, Alemania, Italia, Japón, el Reino Unido, Estados Unidos y la Unión Europea. El G7 de este año tuvo lugar en Hiroshima, Japón, con una reunión celebrada entre los ministros de Tecnología y Digital participantes los días 29 y 30 de abril. Los temas cubiertos incluyeron tecnologías emergentes, infraestructura digital e IA, con un tema de la agenda dedicado específicamente a la IA responsable y la IA global. gobernancia.

El código de conducta sobre IA del G7 surge en un momento en que los gobiernos de todo el mundo están tratando de afrontar el surgimiento de la IA, equilibrando sus capacidades útiles con sus preocupaciones. La UE fue uno de los primeros órganos rectores en establecer directrices con su histórica Ley de IA de la UE, cuyo primer borrador fue aprobado en junio. El 26 de octubre, las Naciones Unidas establecieron un comité asesor de 39 miembros para abordar cuestiones relacionadas con la regulación global de la IA. El gobierno chino también lanzó su propia regulación sobre IA, que comenzó a entrar en vigor en agosto. Desde dentro de la industria, OpenAI, el desarrollador del popular chatbot de IA ChatGPT, anunció planes para crear un equipo de "preparación" para evaluar una variedad de riesgos relacionados con la IA.