Według Cointelegraph kraje uprzemysłowione Grupy Siedmiu (G7) mają uzgodnić 30 października kodeks postępowania dla programistów dotyczący sztucznej inteligencji (AI). Kodeks składa się z 11 punktów i ma na celu promowanie „bezpiecznej i godnej zaufania sztucznej inteligencji na całym świecie” i pomaga „wykorzystać” korzyści ze sztucznej inteligencji, jednocześnie eliminując i rozwiązując związane z nią zagrożenia. Plan został opracowany przez przywódców G7 we wrześniu i zapewnia dobrowolne wytyczne dla organizacji opracowujących zaawansowane systemy sztucznej inteligencji, w tym podstawowe modele i generatywne systemy sztucznej inteligencji.

Kodeks sugeruje również, że firmy powinny publikować raporty na temat możliwości, ograniczeń, wykorzystania i niewłaściwego użycia budowanych systemów, a także zaleca solidne mechanizmy kontroli bezpieczeństwa tych systemów. Do krajów G7 należą Kanada, Francja, Niemcy, Włochy, Japonia, Wielka Brytania, Stany Zjednoczone i Unia Europejska. Tegoroczne szczyt G7 odbył się w Hiroszimie w Japonii, a spotkanie uczestniczących ministrów ds. cyfryzacji i technologii odbyło się w dniach 29–30 kwietnia. Poruszane tematy obejmowały nowe technologie, infrastrukturę cyfrową i sztuczną inteligencję, a punkt porządku obrad był specjalnie poświęcony odpowiedzialnej sztucznej inteligencji i globalnej sztucznej inteligencji zarządzanie.

Kodeks postępowania G7 dotyczący sztucznej inteligencji pojawia się w momencie, gdy rządy na całym świecie próbują zaradzić pojawieniu się sztucznej inteligencji, równoważąc jej przydatne możliwości z obawami. UE była jednym z pierwszych organów zarządzających, które ustaliły wytyczne w swojej przełomowej ustawie UE o sztucznej inteligencji, której pierwszy projekt przyjęto w czerwcu. 26 października Organizacja Narodów Zjednoczonych powołała 39-osobowy komitet doradczy, który ma zająć się kwestiami związanymi z globalnymi regulacjami dotyczącymi sztucznej inteligencji. Chiński rząd uruchomił także własne regulacje dotyczące sztucznej inteligencji, które zaczęły obowiązywać w sierpniu. Działająca w branży firma OpenAI, twórca popularnego chatbota ChatGPT, ogłosił plany utworzenia zespołu ds. gotowości, który będzie oceniał szereg zagrożeń związanych ze sztuczną inteligencją.