Autor: Tom Mitchelhill, CoinTelegraph Compilator: Tao Zhu, Golden Finance;

Guvernatorul Californiei, Gavin Newsom, a respins un proiect de lege controversat privind inteligența artificială (AI), argumentând că ar împiedica inovarea și nu va proteja publicul de amenințările „reale” reprezentate de tehnologie.

Pe 30 septembrie, Newsom a pus veto SB 1047, Safe Innovation for Frontier Artificial Intelligence Models Act, care s-a confruntat cu o opoziție puternică din partea Silicon Valley.

Proiectul de lege propune testarea obligatorie de siguranță a modelelor de inteligență artificială și a altor balustrade, despre care companiile tehnologice se tem că ar putea înăbuși inovația.

Newsom a declarat într-o declarație din 29 septembrie că proiectul de lege se concentrează prea mult pe reglementarea companiilor de inteligență artificială de top existente și nu protejează publicul de amenințările „reale” reprezentate de noile tehnologii.

„În schimb, proiectul de lege impune standarde stricte chiar și asupra celei mai elementare funcționalități – atâta timp cât sistemele mari o implementează. Nu cred că aceasta este cea mai bună modalitate de a proteja publicul de amenințările reale reprezentate de tehnologie”.

SB 1047, scris de senatorul Scott Wiener, deputat la San Francisco, cere dezvoltatorilor din California, inclusiv nume mari precum OpenAI, Meta și Google, producătorii de ChatGPT, să implementeze „kill switch-uri” pentru modelele lor de AI și să publice planuri de atenuare a riscurilor extreme. .

Dacă proiectul de lege va fi adoptat, dezvoltatorii de inteligență artificială vor fi, de asemenea, probabil dați în judecată de procurorii generali ai statului, pe fondul amenințărilor în curs de desfășurare din partea unor modele precum preluarea rețelei AI.

Newsom a spus că le-a cerut celor mai importanți experți în siguranță AI din lume să ajute California „să dezvolte balustrade acționabile”, concentrându-se pe crearea „analizei traiectoriei bazate pe știință”. El a adăugat că a ordonat agențiilor de stat să-și extindă evaluarea riscului de evenimente catastrofale care ar putea apărea din dezvoltarea AI.

Deși Newsom a respins SB 1047, el a spus că trebuie să existe protocoale de siguranță adecvate pentru inteligența artificială, adăugând că autoritățile de reglementare nu pot „așteaptă până când apare un dezastru major pentru a lua măsuri pentru a proteja publicul”.

Newsom a adăugat că administrația sa a semnat peste 18 proiecte de lege care reglementează inteligența artificială în ultimele 30 de zile.

Politicienii și companiile Big Tech se opun legii privind siguranța AI

Înainte de decizia lui Newsom, proiectul de lege era nepopular printre parlamentari, consilieri și marile companii de tehnologie.

Președintele Camerei Nancy Pelosi și companii precum OpenAI spun că acest lucru va împiedica grav dezvoltarea inteligenței artificiale.

Neil Chilson, șeful politicii de inteligență artificială la Institutul Abundance, a avertizat că, deși proiectul de lege se concentrează pe modele cu un anumit cost și scară (modele care costă mai mult de 100 de milioane de dolari), domeniul său de aplicare ar putea fi cu ușurință extins pentru a afecta dezvoltatorii mai mici.

Dar unii sunt deschiși la factura. Miliardarul Elon Musk, care își dezvoltă propriul model de inteligență artificială numit „Grok”, este unul dintre puținii lideri tehnologici care susțin proiectul de lege și reglementările mai largi ale AI.

Într-o postare din 26 august către