TLDR

  • Były pracownik OpenAI William Saunders odszedł ze stanowiska ze względu na obawy dotyczące podejścia firmy do bezpieczeństwa sztucznej inteligencji.

  • Saunders porównał trajektorię OpenAI z trajektorią Titanica, przedkładając nowe produkty nad środki bezpieczeństwa.

  • Wyraził zaniepokojenie skupieniem się OpenAI na osiągnięciu sztucznej inteligencji ogólnej przy jednoczesnym wypuszczeniu produktów komercyjnych.

  • Saunders był częścią zespołu OpenAI ds. superwyrównania, który później został rozwiązany.

  • Inni byli pracownicy OpenAI również odeszli, aby założyć firmy skupiające się na bezpieczeństwie AI.

William Saunders, były członek zespołu ds. superwyrównania OpenAI, wypowiedział się na temat swojej decyzji o opuszczeniu firmy po trzech latach.

Saunders, który pracował nad zrozumieniem zachowania modeli językowych sztucznej inteligencji, twierdzi, że odszedł, ponieważ uważał, że OpenAI przedkłada rozwój produktu nad wdrażanie odpowiednich środków bezpieczeństwa.

W ostatnich wywiadach Saunders porównał trajektorię OpenAI z trajektorią Titanica, sugerując, że firma tworzy imponującą technologię bez wystarczających zabezpieczeń.

„Naprawdę nie chciałem pracować dla Titanica AI, dlatego zrezygnowałem” – stwierdził Saunders w wywiadzie dla podcastu.

Saunders wyraził zaniepokojenie podwójnym skupieniem się OpenAI na osiągnięciu sztucznej inteligencji ogólnej (AGI) – punktu, w którym sztuczna inteligencja może się uczyć – jednocześnie wypuszczając produkty komercyjne.

Uważa on, że to połączenie może prowadzić do pośpiesznego rozwoju i nieodpowiednich środków bezpieczeństwa.

„Idą ścieżką, która ma zmienić świat, a jednak kiedy wypuszczają nowe rzeczy, ich priorytety bardziej przypominają firmę produkującą produkty” – wyjaśnił Saunders.

Dodał, że chociaż w OpenAI są pracownicy, którzy wykonują dobrą pracę nad zrozumieniem zagrożeń i zapobieganiem im, nie widzi wystarczającego priorytetyzacji tej pracy.

Obawy byłego pracownika dotyczą szerszej branży sztucznej inteligencji. Saunders był jednym z 13 byłych i obecnych pracowników OpenAI i Google DeepMind, którzy podpisali list otwarty zatytułowany „Prawo do ostrzeżenia”.

W piśmie podkreślono znaczenie umożliwienia członkom społeczności sztucznej inteligencji wypowiadania się na temat swoich obaw związanych z szybko rozwijającą się technologią.

Odejście Saundersa z OpenAI nie jest odosobnionym przypadkiem. Inne wybitne osobistości również opuściły firmę z powodu podobnych obaw.

Na przykład Anthropic, konkurencyjna firma zajmująca się sztuczną inteligencją, została założona w 2021 r. przez byłych pracowników OpenAI, którzy uważali, że firma nie była wystarczająco skupiona na zaufaniu i bezpieczeństwie.

Niedawno Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI, odszedł w czerwcu 2024 r., aby założyć Safe Superintelligence Inc., firmę zajmującą się badaniami nad sztuczną inteligencją, przy jednoczesnym zapewnieniu, że „bezpieczeństwo zawsze pozostaje na pierwszym miejscu”.

OpenAI spotkało się z krytyką i wewnętrznymi zawirowaniami w związku ze swoim podejściem do rozwoju sztucznej inteligencji. W listopadzie 2023 r. zarząd Sam Altman został na krótko usunięty przez zarząd, powołując się na utratę zaufania.

Chociaż Altman został przywrócony na stanowisko kilka dni później, incydent uwydatnił utrzymujące się napięcia w firmie.

Pomimo tych obaw OpenAI kontynuuje prace nad rozwojem sztucznej inteligencji. Firma niedawno rozwiązała swój zespół ds. superwyrównania, do którego należała grupa Saunders, a którego zadaniem było kontrolowanie systemów sztucznej inteligencji, które pewnego dnia mogłyby być mądrzejsze od ludzi.

Wpis Były pracownik OpenAI zgłasza obawy dotyczące praktyk bezpieczeństwa AI pojawił się jako pierwszy na Blockonomi.