Ustawodawcy w stanie Kalifornia przeforsowali projekt ustawy o bezpieczeństwie sztucznej inteligencji (AI), który wzbudził kontrowersje w branży technologicznej i spotkał się z oporem kluczowych graczy i urzędników.
28 sierpnia projekt ustawy Senatu (SB) 1047 został przyjęty przez Zgromadzenie Stanowe i teraz czeka na ostateczne zdanie gubernatora stanu, Gavina Newsoma. Newsom będzie miał czas do 30 września, aby zdecydować, czy podpisać ustawę, czy ją zawetować.
Projekt ustawy SB 1047 został napisany przez Scotta Wienera, senatora Demokratów z San Francisco. Wiener twierdzi, że przepisy muszą zostać wprowadzone, zanim jakiekolwiek dalsze postępy w dziedzinie sztucznej inteligencji staną się niekontrolowane.
Projekt ustawy nakłada obowiązek przeprowadzania testów bezpieczeństwa na większość najbardziej zaawansowanych modeli sztucznej inteligencji, zarówno tych, których opracowanie kosztuje ponad 100 milionów dolarów, jak i tych, których działanie wymaga przekroczenia określonej mocy obliczeniowej.
Będzie ona wymagać od deweloperów w stanie Kalifornia — co obejmie takie duże firmy jak twórca ChatGPT OpenAI, Meta i Google — uzyskania planów dotyczących „wyłącznika awaryjnego” dla takich modeli, gdyby stały się niemożliwe do zarządzania, a także udziału zewnętrznych audytorów w audytach bezpieczeństwa tych modeli.
Deweloperzy będą mogli również zostać pozwani przez prokuratora generalnego stanu w przypadku trwającego zagrożenia ze strony takich modeli, jak przejęcie sieci AI.
Odrzucenie ustawy SB 1047
Chociaż Wiener twierdzi, że ustawa jest konieczna, aby zapobiec nieodwracalnym szkodom społecznym spowodowanym przez nieprawidłowo działające systemy sztucznej inteligencji, nie wszyscy popierają ustawę SB 1047.
Projekt ustawy spotkał się ze znacznym oporem ze strony kluczowych graczy branży technologicznej i polityków stanowych, którzy twierdzą, że utrudni on rozwój innowatorów w stanie.
Warto zauważyć, że emerytowana przewodnicząca Izby Reprezentantów Nancy Pelosi skomentowała projekt ustawy, stwierdzając, że jest on „bardziej szkodliwy niż pomocny” w dążeniu Kalifornii do przewodzenia w rozwoju sztucznej inteligencji.
Szef polityki AI w Abundance Institute, Neil Chilson, ostrzegł, że chociaż ustawa dotyczy przede wszystkim modeli o określonym koszcie i kalibrze, to „próbuje” ona stworzyć standard „rozsądnej staranności” dla szkolenia AI.
Źródło: Neil Chilson
Dodał, że może to doprowadzić do przeciążenia i wpłynąć również na mniejsze firmy i modele działalności.
Firmy technologiczne z branży szczególnie nie lubią ustawy, a OpenAI przewodzi oporowi przeciwko niej, twierdząc, że utrudni ona wzrost. Wiener zakwestionował jednak te twierdzenia.
Google i Meta Platformy również wyraziły swoje obawy w liście wysłanym do gubernatora Kalifornii Newsoma.
Jednak w sporze opinii na temat projektu ustawy Anthropic z Amazon wyraził poparcie, twierdząc, że korzyści „prawdopodobnie przewyższą koszty”, choć nadal zawiera ona pewne niejasności.
Były profesor informatyki na Carnegie Mellon i absolwent administracji Obamy, Eric Daimler powiedział, że jest „głęboko zaniepokojony” bezpieczeństwem AI i wezwał Waszyngton do potraktowania ustawy SB 1047 jako przykładu. Powiedział również, że wierzy, że istnieje „bardziej efektywna droga naprzód”.
Źródło: Eric Daimler
SB 1047 nie jest jedynym projektem ustawy o AI w Kalifornii, który jest obecnie omawiany. SB 1220, który zakazuje używania AI w centrach telefonicznych, które świadczą usługi socjalne i zdrowotne, takie jak SNAP i Medicaid, również wzbudził wątpliwości w branży.
Jednak kalifornijska ustawa AB 3211, która wymagałaby stosowania znaków wodnych w treściach generowanych przez sztuczną inteligencję, zyskała poparcie firm technologicznych, takich jak OpenAI i Microsoft.
Miliarder Elon Musk, który rozwija swój model Grok, wyraził poparcie dla szeroko zakrojonych przepisów bezpieczeństwa dotyczących sztucznej inteligencji.
Serwis Cointelegraph skontaktował się z kalifornijskimi ekspertami prawnymi i twórcami sztucznej inteligencji, aby lepiej zrozumieć klimat otaczający te projekty ustaw.
AI Eye: Plan „piekielnego krajobrazu” dla dronów AI dla Tajwanu, LLM-y są zbyt głupie, aby zniszczyć ludzkość