OpenAI szkoli nowy system sztucznej inteligencji, który ma zastąpić GPT-4, ponieważ firma chce odzyskać reputację. Model będzie poprzedzony komitetem ds. bezpieczeństwa i ochrony, na którego czele stanie dyrektor generalny Sam Altman i trzech innych członków zarządu. 

Przeczytaj także: ChatGPT nadal rozpowszechnia kłamstwa, twierdzi unijny organ nadzoru danych

Firma z siedzibą w San Francisco znajduje się pod presją, aby wykazać swoje zaangażowanie w bezpieczeństwo. Niedawno zrezygnowani badacze ryzyka Jan Leike i Gretchen Krueger ujawnili rzekomą słabą kulturę bezpieczeństwa OpenAI na X, dawniej Twitterze.

OpenAI trenuje „Next Frontier Model”

W opublikowanym we wtorek wpisie na blogu firma stwierdziła:

„OpenAI rozpoczęło niedawno szkolenie swojego kolejnego pionierskiego modelu i spodziewamy się, że powstałe w ten sposób systemy wprowadzą nas na wyższy poziom możliwości na naszej drodze do sztucznej inteligencji ogólnej (AGI).”

OpenAI nie powiedziało, kiedy zostanie wydany następca GPT-4 ani co będzie mógł zrobić. Firma wyceniana na 80 miliardów dolarów zdecydowała się na pierwszy ruch dzięki niezwykle popularnemu chatbotowi opartemu na sztucznej inteligencji ChatGPT w czasie, gdy ulubieńcy tacy jak Google zeszli na dalszy plan, oceniając ryzyko reputacji.

Chociaż OpenAI jest liderem w wyścigu generatywnej sztucznej inteligencji, któremu stanowczo sprzeciwiają się Anthropic, Google, Microsoft i inne firmy, firma nie zawsze poddaje się kontroli etycznej.

W poście ogłaszającym rezygnację z OpenAI na platformie X Leike ujawnił, że „w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan na rzecz błyszczących produktów”.

Krueger napisał, że firma musi „zrobić więcej, aby ulepszyć podstawowe rzeczy, takie jak procesy decyzyjne, odpowiedzialność, przejrzystość, egzekwowanie polityki i ostrożność, z jaką korzystamy z własnej technologii”.

W zeszłym tygodniu grupa zadaniowa Unii Europejskiej ustosunkowała się do krytyki, donosząc, że ChatGPT, flagowy produkt firmy, nie spełnia swoich standardów dokładności.

Firma uważa bezpieczeństwo sztucznej inteligencji za kluczowy punkt sprzedaży

Tymczasem niedawna aktualizacja OpenAI do modelu GPT-4 natychmiast spotkała się z głośną sprzeczką, w której aktorka Scarlett Johannson oskarżyła firmę o nieuprawnione użycie jej głosu.

Przeczytaj także: OpenAI wycofuje się z ChatGPT Voice po kontrowersjach ze Scarlett Johansson

Teraz firma szybko zmierza do pralni samoobsługowej, uznając bezpieczeństwo za zaletę swojego nadchodzącego programu sztucznej inteligencji. Organizacjom regulacyjnym zależy również na tym, aby firma rozwijała odpowiedzialną sztuczną inteligencję. W swoim poście na blogu OpenAI dodał:

„Chociaż jesteśmy dumni, że możemy budować i wypuszczać na rynek modele, które są wiodącymi w branży zarówno pod względem możliwości, jak i bezpieczeństwa, z radością witamy solidną debatę w tym ważnym momencie”.

Na czele nowej komisji ds. bezpieczeństwa staną dyrektorzy Altman, Bret Taylor (przewodniczący), Adam D’Angelo i Nicole Seligman. W komisji zasiądą także szef działu gotowości firmy, kierownik ds. systemów bezpieczeństwa, kierownik ds. nauki osiowania, kierownik ds. bezpieczeństwa i główny naukowiec.

OpenAI powiedziało, że komisja w ciągu najbliższych trzech miesięcy „oceni i będzie dalej rozwijać procesy i zabezpieczenia”, a następnie złoży raport trzem innym dyrektorom.

Firma rozwiązała swój zespół ds. bezpieczeństwa na początku tego miesiąca po odejściu lidera zespołu i współzałożyciela OpenAI Ilyi Sutskevera.

Raportowanie kryptopolityczne autorstwa Jeffreya Gogo