Była współzałożycielka OpenAI Ilya Sutskever wraz z inżynierem Danielem Levym i inwestorem Danielem Grossem założyli firmę Safe Superintelligence, Inc. (SSI), aby zwiększać bezpieczeństwo i możliwości sztucznej inteligencji (AI). Celem firmy z siedzibą w USA i biurami w Palo Alto i Tel Awiwie jest rozwój sztucznej inteligencji w bezpieczny sposób. Sutskever i Levy opuścili OpenAI w maju w związku z obawami dotyczącymi kierunku rozwoju AI. Trio, w tym Gross, skoncentruje się na sterowaniu i kontrolowaniu systemów AI mądrzejszych od ludzi, znanych jako sztuczna inteligencja ogólna (AGI). Posunięcie to następuje po rozwiązaniu zespołu OpenAI ds. Superalignment, co wywołało dyskusję na temat zagrożeń związanych ze sztuczną inteligencją. Akcja rekrutacyjna SSI dla inżynierów i badaczy sygnalizuje nowy rozdział w rozwoju sztucznej inteligencji w społeczności kryptograficznej, a postacie takie jak Vitalik Buterin i Elon Musk wyrażają ostrożność i opowiadają się za odpowiedzialnymi praktykami szkoleniowymi w zakresie sztucznej inteligencji. Przeczytaj więcej wiadomości generowanych przez sztuczną inteligencję na: https://app.chaingpt.org/news