Według Cointelegraph, gubernator Kalifornii Gavin Newsom zawetował kontrowersyjny projekt ustawy o sztucznej inteligencji (AI), argumentując, że utrudni on innowacje i nie rozwiąże rzeczywistych zagrożeń, jakie niesie ze sobą ta technologia. Projekt ustawy, SB 1047, znany jako Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, został zawetowany 30 września po znacznym sprzeciwie ze strony Doliny Krzemowej. Proponowane przepisy miały na celu nakazanie testowania bezpieczeństwa modeli AI i wdrożenie innych zabezpieczeń, które firmy technologiczne obawiały się, że stłumią innowacje.

W oświadczeniu z 29 września Newsom skrytykował projekt ustawy za zbytnie skupienie się na regulacji istniejących czołowych firm AI bez odpowiedniej ochrony społeczeństwa przed rzeczywistymi zagrożeniami, jakie niesie ze sobą nowa technologia. Twierdził, że projekt ustawy stosuje surowe standardy nawet do najbardziej podstawowych funkcji dużych systemów, co jego zdaniem nie jest najlepszym podejściem do ochrony społeczeństwa.

Projekt ustawy, którego autorem jest demokratyczny senator z San Francisco Scott Wiener, wymagałby od deweloperów w Kalifornii, w tym dużych firm, takich jak OpenAI, Meta i Google, wdrożenia „wyłącznika awaryjnego” dla ich modeli AI i opublikowania planów łagodzenia ekstremalnych ryzyk. Ponadto deweloperzy AI mogliby zostać pozwani przez prokuratora generalnego stanu w przypadku trwającego zagrożenia ze strony modeli, takich jak przejęcie siatki AI.

Newsom oświadczył, że konsultował się z czołowymi ekspertami ds. bezpieczeństwa AI, aby pomóc Kalifornii opracować wykonalne zabezpieczenia, które skupiają się na tworzeniu analizy trajektorii opartej na nauce. Nakazał również agencjom stanowym rozszerzenie oceny ryzyka związanego z potencjalnymi katastrofalnymi zdarzeniami wynikającymi z rozwoju AI. Pomimo zawetowania SB 1047, Newsom podkreślił potrzebę odpowiednich protokołów bezpieczeństwa dla AI i podkreślił, że organy regulacyjne nie mogą czekać na poważną katastrofę, zanim podejmą działania w celu ochrony społeczeństwa.

Ustawa spotkała się ze znacznym sprzeciwem ze strony prawodawców, doradców i dużych firm technologicznych. Przewodnicząca Izby Reprezentantów Nancy Pelosi i firmy takie jak OpenAI argumentowały, że znacznie utrudni rozwój AI. Neil Chilson, szef polityki AI w Abundance Institute, ostrzegł, że chociaż ustawa dotyczyła głównie modeli kosztujących ponad 100 milionów dolarów, jej zakres można łatwo rozszerzyć, aby objąć nim również mniejszych deweloperów.

Jednak niektórzy liderzy technologiczni poparli projekt ustawy. Miliarder Elon Musk, który rozwija swój własny model AI o nazwie „Grok”, był jednym z niewielu, którzy popierali projekt ustawy i szersze regulacje dotyczące AI. W poście z 26 sierpnia na X, Musk stwierdził, że „Kalifornia prawdopodobnie powinna uchwalić ustawę o bezpieczeństwie AI SB 1047”, ale przyznał, że poparcie dla projektu ustawy było „trudną decyzją”.