William Saunders, były pracownik OpenAI i członek firmowego „zespołu ds. superukładania”, ujawnił niedawno, że odszedł z firmy, ponieważ czuł, że jest ona na kursie kolizyjnym z tragedią, podobnie jak nieszczęsny R.M.S. Titanic w 1912 r.

Jak zauważył Business Insider, Saunders przedstawił swój komentarz podczas odcinka podcastu dziennikarza technologicznego Alexa Kantrowitza.

Saunders powiedział Kantrowitzowi, że w ciągu trzech lat pracy w OpenAI czasami zadawał sobie pytanie, czy firma podąża ścieżką „bardziej przypominającą program Apollo czy raczej Titanic”.

Wydaje się, że jego rozumowanie jest takie, że dzięki ostrożnym wysiłkom naukowym program kosmiczny Apollo odniósł sukces pomimo swoich niepowodzeń, podczas gdy Titanic poniósł porażkę pomimo swoich sukcesów.

Według Saundersa:

„Wiele pracy włożono w zapewnienie bezpieczeństwa statku i zbudowanie wodoszczelnych przedziałów, aby można było powiedzieć, że jest niezatapialny. Ale jednocześnie nie było wystarczającej liczby łodzi ratunkowych dla wszystkich”.

OpenAI jako Titanic

Saunders opisuje ogólny etos firmy jako taki, w którym kładzie się większy nacisk na rozwój produktów niż na wdrażanie uzasadnionych środków bezpieczeństwa.

Maluje obraz biura, w którym pracownicy zgłaszający obawy dotyczące bezpieczeństwa są karani, a przywództwo nastawione jest na zysk.

„Z biegiem czasu” – powiedział Saunders – „zaczęło się odnosić wrażenie, że decyzje podejmowane przez kierownictwo bardziej przypominają linię White Star Line budującą Titanica”.

Góra lodowa

Saunders nie jest pierwszą osobą, która nie zgadza się ze sposobem, w jaki OpenAI rzekomo prowadzi interesy. Elon Musk, jeden ze współzałożycieli firmy, z którym pozostawała w separacji, pozwał ją niedawno w związku z twierdzeniami, że zbytnio odeszła od swojej pierwotnej misji. Dzieje się tak pomimo faktu, że Musk od lat nie był związany z OpenAI i obecnie prowadzi własnego bezpośredniego konkurenta, xAI. Pozew został następnie wycofany.

Rywalizująca firma Anthropic zajmująca się sztuczną inteligencją została założona w 2021 roku przez byłych pracowników i współzałożycieli OpenAI w związku z obawami, że OpenAI nie skupia się wystarczająco na zaufaniu i bezpieczeństwie. 

Z drugiej jednak strony Ilya Sutskever, inny współzałożyciel, obecnie będący w separacji i były główny naukowiec, który odszedł z firmy w maju 2024 r., aby założyć własną firmę, napisał wówczas, że ma „pewność”, że zespół OpenAI będzie w stanie bezpiecznie spełnić swoje cele.

Biorąc pod uwagę, że tak wielu pracowników skacze ze statku, a przynajmniej jeden z nich powtarza analogię do Titanica, pojawia się pytanie: kto lub co jest górą lodową?

Jeśli pasażerami w tej analogii jesteśmy my – cała ludzkość – wówczas góra lodowa reprezentuje egzystencjalne zagrożenie, jakie ChatGPT i podobne do niego systemy stanowią dla nieprzygotowanego społeczeństwa. Jeśli sztuczna inteligencja stanie się bardziej inteligentna i zdolna od nas, a my nie będziemy mieli wystarczającej liczby „łodzi ratunkowych”, aby chronić wszystkich przed potencjalnymi szkodami, możemy zmierzać ku tragedii.

Jeśli jednak pasażerami są akcjonariusze i zainteresowane strony czekające, aż OpenAI stworzy sztuczną inteligencję tak inteligentną jak ludzie, a to nigdy się nie stanie, to być może góra lodowa reprezentuje pęknięcie bańki generatywnej sztucznej inteligencji.

Powiązane: Big Tech stanie przed poważnymi trudnościami finansowymi, jeśli wkrótce nie pojawi się sztuczna inteligencja na poziomie ludzkim