Zaledwie miesiąc po ogłoszeniu swojego odejścia z OpenAI, były główny naukowiec OpenAI, Ilya Sutskever, zakłada nową firmę zajmującą się sztuczną inteligencją. „Zakładam nową firmę” – ogłosił późnym wieczorem w środę o nazwie Safe Superintelligence Inc. (SSI).

Przeczytaj także: Główny naukowiec OpenAI, Ilya Sutskever, żegna się

Siedziba SSI znajduje się w Ameryce i ma biura w Palo Alto i Tel Awiwie. W oficjalnym poście startup stwierdził, że ma „jeden cel i jeden produkt: bezpieczną superinteligencję”.

„Będziemy dążyć do bezpiecznej superinteligencji od razu, skupiając się na jednym celu, jednym celu i jednym produkcie. Zrobimy to poprzez rewolucyjne przełomy dokonane przez mały, dobrze zorientowany zespół” – powiedział Sutskever. 

„Nasze skupienie oznacza brak rozproszenia uwagi” – mówi SSI

SSI jest obecnie kierowane przez Sutskevera, Daniela Grossa i innego byłego badacza OpenAI, Daniela Levy'ego. Inwestorzy stojący za startupem pozostają nieznani w momencie pisania.

Jednakże firma zauważyła w ogłoszeniu, że cały „zespół, inwestorzy i model biznesowy są zgodni, aby osiągnąć „bezpieczną superinteligencję”. Uwaga ta nieco rzuca się w oczy w kontekście OpenAI, które zostało kiedyś pozwane przez Elona Muska za stawianie zysku ponad ludzkością i porzucenie swojej pierwotnej misji.

„Nasze wyjątkowe podejście oznacza brak rozproszenia uwagi przez koszty zarządzania lub cykle produktów, a nasz model biznesowy oznacza, że ​​bezpieczeństwo, ochrona i postęp są odizolowane od krótkoterminowych nacisków komercyjnych”.

SSI

Sutskever ogłosił, że opuszcza OpenAI 15 maja po prawie dziesięciu latach pracy w wiodącej firmie AI. Wcześniej milczał w radiu po nieudanej próbie usunięcia CEO Sama Altmana z OpenAI w grudniu ubiegłego roku.

Po prawie dekadzie podjąłem decyzję o opuszczeniu OpenAI. Rozwój firmy był niczym innym, jak cudem i jestem pewien, że OpenAI zbuduje AGI, które będzie zarówno bezpieczne, jak i korzystne pod przewodnictwem @sama, @gdb, @miramurati, a teraz pod…

— Ilya Sutskever (@ilyasut) 14 maja 2024 r.

Inny dyrektor wykonawczy OpenAI, Jan Leike, zrezygnował po Sutskeverze. Obaj współkierowali zespołem Superalignment w OpenAI, który jest odpowiedzialny za zapobieganie niekontrolowanym modelom superinteligentnej AI.

Przeczytaj także: Kolejny dyrektor OpenAI, Jan Leike, odchodzi

Sutskever nie podał jasno powodów odejścia z OpenAI. Jednak Leike przytoczył obawy dotyczące bezpieczeństwa w firmie, mówiąc, że „w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan w obliczu błyszczących produktów”.

„Dołączyłem, ponieważ myślałem, że OpenAI będzie najlepszym miejscem na świecie do prowadzenia takich badań” — powiedział Leike. „Jednak od dłuższego czasu nie zgadzałem się z kierownictwem OpenAI co do podstawowych priorytetów firmy, aż w końcu osiągnęliśmy punkt krytyczny” — dodał.

SSI nie jest pierwszą firmą, która oddzieliła się od OpenAI

Leike dołączył 28 maja do konkurenta OpenAI, Anthropic, jako badacz ML, natomiast Sutskever poszedł założyć swoją nową firmę zajmującą się sztuczną inteligencją – co stało się już tradycją.

Warto zauważyć, że SSI nie będzie pierwszą firmą, która oddzieli się od OpenAI. W 2021 r. dwóch byłych pracowników OpenAI opuściło firmę, aby wspólnie założyć Anthropic, którego wartość po pozyskaniu kapitału wynosi obecnie 18,4 mld USD (stan na 13 maja).

Założyciele Anthropic opuścili również OpenAI z powodu nieporozumień z Samem Altmanem na temat bezpieczeństwa rozwoju sztucznej inteligencji.

Sprawozdanie Cryptopolitan autorstwa Ibiam Wayas