Selon Cointelegraph, les pays industrialisés du Groupe des Sept (G7) devraient se mettre d'accord sur un code de conduite en matière d'intelligence artificielle (IA) pour les développeurs le 30 octobre. Le code comprend 11 points visant à promouvoir « une IA sûre, sécurisée et digne de confiance ». dans le monde entier » et en aidant à « saisir » les avantages de l’IA tout en abordant et en résolvant les risques qu’elle pose. Le plan a été rédigé par les dirigeants du G7 en septembre et propose des orientations volontaires aux organisations développant des systèmes d’IA avancés, notamment des modèles de base et des systèmes d’IA génératifs.
Le code suggère également que les entreprises publient des rapports sur les capacités, les limites, l'utilisation et la mauvaise utilisation des systèmes en cours de construction, et recommande des contrôles de sécurité robustes pour ces systèmes. Les pays du G7 comprennent le Canada, la France, l'Allemagne, l'Italie, le Japon, le Royaume-Uni, les États-Unis et l'Union européenne. Le G7 de cette année s'est tenu à Hiroshima, au Japon, avec une réunion entre les ministres du numérique et de la technologie participants les 29 et 30 avril. Les sujets abordés comprenaient les technologies émergentes, l'infrastructure numérique et l'IA, avec un point à l'ordre du jour spécifiquement dédié à l'IA responsable et à l'IA mondiale. gouvernance.
Le code de conduite du G7 en matière d'IA intervient alors que les gouvernements du monde entier tentent de gérer l'émergence de l'IA, en équilibrant ses capacités utiles et ses préoccupations. L’UE a été parmi les premiers organes directeurs à établir des lignes directrices avec sa loi historique sur l’IA de l’UE, dont le premier projet a été adopté en juin. Le 26 octobre, les Nations Unies ont créé un comité consultatif de 39 membres pour s'attaquer aux questions liées à la réglementation mondiale de l'IA. Le gouvernement chinois a également lancé sa propre réglementation sur l’IA, qui est entrée en vigueur en août. Au sein du secteur, OpenAI, le développeur du populaire chatbot IA ChatGPT, a annoncé son intention de créer une équipe de « préparation » pour évaluer une gamme de risques liés à l'IA.