Senaccy Demokraci i jeden niezależny prawodawca wysłali list do dyrektora generalnego OpenAI Sama Altmana w sprawie standardów bezpieczeństwa firmy i praktyk zatrudniania sygnalistów.
Być może najbardziej znaczącą częścią listu, do którego po raz pierwszy dotarł „The Washington Post”, był punkt 9, który brzmiał: „Czy OpenAI zobowiąże się do udostępnienia swojego kolejnego podstawowego modelu agencjom rządu USA w celu przetestowania, przeglądu, analizy i oceny przed wdrożeniem ?”
W piśmie wskazano 11 dodatkowych punktów, którymi należy się zająć, w tym zapewnienie zobowiązania OpenAI do przeznaczenia 20% swojej mocy obliczeniowej na badania i protokoły dotyczące bezpieczeństwa paliw, aby uniemożliwić złośliwemu podmiotowi lub zagranicznemu przeciwnikowi kradzież produktów AI z OpenAI.
Kontrola regulacyjna
Chociaż kontrola regulacyjna nie jest niczym nowym dla OpenAI i obejmującego go sektora sztucznej inteligencji, list od prawodawców Demokratów był efektem doniesień sygnalistów o luźnych standardach bezpieczeństwa dla GPT-4 Omni, aby zapewnić, że wprowadzenie produktu na rynek nie będzie opóźnione.
Powiązane: Synchron, ChatGPT, aby pomóc sparaliżowanym pacjentom ponownie rozmawiać i wysyłać SMS-y
Sygnaliści OpenAI twierdzili również, że wysiłki mające na celu zwrócenie uwagi kierownictwa na kwestie bezpieczeństwa spotkały się z odwetem i rzekomo nielegalnymi umowami o zachowaniu poufności, co skłoniło sygnalistów do złożenia skargi do Komisji Papierów Wartościowych i Giełd w czerwcu 2024 r.
Wkrótce po tym, jak w lipcu giganci technologiczni Microsoft i Apple zrzekli się członkostwa w zarządzie OpenAI ze względu na wzmożoną kontrolę regulacyjną, decyzja o nieobejmowaniu miejsca w zarządzie zapadła pomimo inwestycji Microsoftu w OpenAI w wysokości 13 miliardów dolarów w 2023 roku.
Lęki egzystencjalne utrzymują się
Były pracownik OpenAI, William Saunders, ujawnił niedawno, że odszedł z firmy, ponieważ uważał, że trwające badania w OpenAI mogą stanowić egzystencjalne zagrożenie dla ludzkości, porównując potencjalną trajektorię OpenAI do niesławnej katastrofy RMS Titanic w 1912 roku.
Saunders wyjaśnił, że nie martwi go obecna wersja wielkojęzykowego modelu ChatGPT OpenAI, ale bardziej interesują go przyszłe wersje ChatGPT i potencjalny rozwój zaawansowanej nadludzkiej inteligencji.
Sygnalista argumentował, że pracownicy sektora sztucznej inteligencji mają prawo ostrzegać opinię publiczną o potencjalnie niebezpiecznych możliwościach, jakie stwarza szybki rozwój sztucznej inteligencji.
Magazyn: AI Eye: Czy sztuczna inteligencja stanowi zagrożenie na poziomie nuklearnym? Dlaczego wszystkie pola AI rozwijają się jednocześnie, głupie kalambury