Senaccy Demokraci i jeden niezależny prawodawca wysłali list do dyrektora generalnego OpenAI Sama Altmana w sprawie standardów bezpieczeństwa firmy i praktyk zatrudniania sygnalistów.

Być może najbardziej znaczącą częścią listu, do którego po raz pierwszy dotarł „The Washington Post”, był punkt 9, który brzmiał: „Czy OpenAI zobowiąże się do udostępnienia swojego kolejnego podstawowego modelu agencjom rządu USA w celu przetestowania, przeglądu, analizy i oceny przed wdrożeniem ?”

W piśmie wskazano 11 dodatkowych punktów, którymi należy się zająć, w tym zapewnienie zobowiązania OpenAI do przeznaczenia 20% swojej mocy obliczeniowej na badania i protokoły dotyczące bezpieczeństwa paliw, aby uniemożliwić złośliwemu podmiotowi lub zagranicznemu przeciwnikowi kradzież produktów AI z OpenAI.

Kontrola regulacyjna

Chociaż kontrola regulacyjna nie jest niczym nowym dla OpenAI i obejmującego go sektora sztucznej inteligencji, list od prawodawców Demokratów był efektem doniesień sygnalistów o luźnych standardach bezpieczeństwa dla GPT-4 Omni, aby zapewnić, że wprowadzenie produktu na rynek nie będzie opóźnione.

Powiązane: Synchron, ChatGPT, aby pomóc sparaliżowanym pacjentom ponownie rozmawiać i wysyłać SMS-y

Sygnaliści OpenAI twierdzili również, że wysiłki mające na celu zwrócenie uwagi kierownictwa na kwestie bezpieczeństwa spotkały się z odwetem i rzekomo nielegalnymi umowami o zachowaniu poufności, co skłoniło sygnalistów do złożenia skargi do Komisji Papierów Wartościowych i Giełd w czerwcu 2024 r.

Wkrótce po tym, jak w lipcu giganci technologiczni Microsoft i Apple zrzekli się członkostwa w zarządzie OpenAI ze względu na wzmożoną kontrolę regulacyjną, decyzja o nieobejmowaniu miejsca w zarządzie zapadła pomimo inwestycji Microsoftu w OpenAI w wysokości 13 miliardów dolarów w 2023 roku.

Lęki egzystencjalne utrzymują się

Były pracownik OpenAI, William Saunders, ujawnił niedawno, że odszedł z firmy, ponieważ uważał, że trwające badania w OpenAI mogą stanowić egzystencjalne zagrożenie dla ludzkości, porównując potencjalną trajektorię OpenAI do niesławnej katastrofy RMS Titanic w 1912 roku.

Saunders wyjaśnił, że nie martwi go obecna wersja wielkojęzykowego modelu ChatGPT OpenAI, ale bardziej interesują go przyszłe wersje ChatGPT i potencjalny rozwój zaawansowanej nadludzkiej inteligencji.

Sygnalista argumentował, że pracownicy sektora sztucznej inteligencji mają prawo ostrzegać opinię publiczną o potencjalnie niebezpiecznych możliwościach, jakie stwarza szybki rozwój sztucznej inteligencji.

Magazyn: AI Eye: Czy sztuczna inteligencja stanowi zagrożenie na poziomie nuklearnym? Dlaczego wszystkie pola AI rozwijają się jednocześnie, głupie kalambury