Odaily Planet Daily News 14 maja (w ubiegły wtorek) czasu wschodniego główny naukowiec OpenAI Ilya Sutskever oficjalnie ogłosił swoją rezygnację. Tego samego dnia swoją rezygnację ogłosił także Jan Leike, jeden z liderów zespołu OpenAI Super Alignment. W piątek OpenAI potwierdziło również, że „Zespół ds. dostosowania superinteligencji”, na którego czele stoją Suzkovo i Jan Lake, został rozwiązany. Wczesnym rankiem 18 maja Jane Lake zamieściła 13 tweetów na platformie społecznościowej X, ujawniając prawdziwy powód swojej rezygnacji i dostarczając więcej poufnych informacji. W odpowiedzi na przełomowe informacje Jane Lake Altman również 18 maja wydał pilną odpowiedź: „Jestem bardzo wdzięczny Jane Lake za jego wkład w badania nad superdopasowaniem AI i kulturę bezpieczeństwa OpenAI i jest mi bardzo smutno, że opuścił Niestety. Zauważył, że nadal mamy wiele do zrobienia i zgadzamy się, że zamierzamy kontynuować te prace. W ciągu najbliższych kilku dni napiszę bardziej szczegółowy artykuł na ten temat Musk tak skomentował wiadomość o rozwiązaniu zespołu „Super Alignment”: „To pokazuje, że bezpieczeństwo nie jest najwyższym priorytetem OpenAI. Podsumowując, po pierwsze, zasoby obliczeniowe są niewystarczające, a po drugie, OpenAI nie płaci wystarczająco dużo dbałość o bezpieczeństwo . Jane Lake stwierdziła, że ​​należy zainwestować więcej zasobów i energii w przygotowanie na nową generację modeli AI, ale obecna ścieżka rozwoju nie pozwala skutecznie osiągnąć celu, a jego zespół w ciągu ostatnich kilku miesięcy stanął przed ogromnymi wyzwaniami. Trudno jest uzyskać wystarczające zasoby obliczeniowe. Jane Lake podkreśliła również, że tworzenie maszyn przewyższających ludzką inteligencję jest pełne ryzyka, a OpenAI bierze na siebie tę odpowiedzialność, ale w dążeniu do rozwoju produktu należy marginalizować kulturę i procesy bezpieczeństwa przekształciła się w firmę. AGI stawia bezpieczeństwo na pierwszym miejscu. 17 stycznia strona internetowa US Vox podała, że ​​zarząd OpenAI próbował zwolnić dyrektora generalnego Altmana, w wyniku czego Altman szybko odzyskał władzę, dbając o bezpieczeństwo, pracownicy The Wall Jak podaje Street Journal, Suzkweil skupił swoją uwagę na tym, aby sztuczna inteligencja nie szkodziła człowiekowi, podczas gdy inni, w tym Altman, byli bardziej skłonni do promowania rozwoju nowych technologii.Magazyn Wired podał, że Suzkweil był jednym z czterech członków zarządu, którzy zwolnili Altmana w listopadzie ubiegłego roku. Źródła firmy powiedziały Vox.com, że dbający o bezpieczeństwo pracownicy stracili zaufanie do Ultramana. „Jest to proces, w którym zaufanie spada stopniowo, podobnie jak kostki domina po kolei”. Wierzą, że Ultraman twierdzi, że na pierwszym miejscu stawia bezpieczeństwo, ale swoim zachowaniem zaprzecza sobie. Amerykański blog technologiczny TechCrunch podał 18 stycznia, że ​​OpenAI zrezygnowało z badań nad bezpieczeństwem i zamiast tego wprowadziło nowe produkty, takie jak GPT-4o, co ostatecznie doprowadziło do rezygnacji dwóch liderów zespołu „Super Alignment”. Nie jest jasne, kiedy i czy w branży technologicznej dokonają się przełomy niezbędne do stworzenia sztucznej inteligencji, która będzie w stanie wykonać każde zadanie, jakie może wykonać człowiek. (sieć WWW)