Według Cointelegraph, firmy zajmujące się sztuczną inteligencją OpenAI i Anthropic zgodziły się przyznać US AI Safety Institute wczesny dostęp do wszelkich znaczących nowych modeli AI opracowanych przez ich odpowiednie firmy. Ta umowa, napędzana wzajemnymi obawami o bezpieczeństwo, pozostawia dokładną rolę rządu w przypadku znaczącego przełomu technologicznego nieco niejasną.
Dyrektor generalny i współzałożyciel OpenAI, Sam Altman, podkreślił znaczenie tej umowy w niedawnym wpisie na platformie społecznościowej X, stwierdzając: „Jesteśmy szczęśliwi, że osiągnęliśmy porozumienie z US AI Safety Institute w sprawie testów przedpremierowych naszych przyszłych modeli. Z wielu powodów uważamy, że ważne jest, aby działo się to na szczeblu krajowym. USA muszą nadal przewodzić!”
Zarówno OpenAI, jak i Anthropic skupiają się na rozwijaniu sztucznej inteligencji ogólnej (AGI), formy AI zdolnej do wykonywania każdego zadania, jakie może wykonać człowiek, przy odpowiednich zasobach. Każda firma ma swój własny statut i misję, których celem jest bezpieczne tworzenie AGI, mając na uwadze interesy ludzkości. Gdyby któraś z firm odniosła sukces, stałyby się kluczowymi strażnikami tej zaawansowanej technologii. Zgadzając się na dzielenie się swoimi modelami z rządem USA przed wprowadzeniem jakichkolwiek produktów na rynek, obie firmy skutecznie przeniosły część tej odpowiedzialności na władze federalne.
Jak niedawno donosił Cointelegraph, OpenAI może zbliżać się do przełomu dzięki swoim projektom „Strawberry” i „Orion”, które rzekomo posiadają zaawansowane możliwości rozumowania i nowe metody rozwiązywania problemu halucynacji AI. Rząd USA podobno już dokonał przeglądu tych narzędzi i wczesnych iteracji ChatGPT, które je zawierają.
Wpis na blogu amerykańskiego Narodowego Instytutu Standardów i Technologii wskazuje, że wytyczne bezpieczeństwa związane z tą umową są dobrowolne dla uczestniczących w niej firm. Zwolennicy tego łagodnego podejścia regulacyjnego twierdzą, że zachęca ono do wzrostu i pozwala sektorowi na samoregulację. Zwolennicy, w tym Altman, postrzegają tę umowę jako model tego, jak współpraca między rządem a sektorem korporacyjnym może być korzystna dla obu stron.
Istnieją jednak obawy dotyczące potencjalnego braku przejrzystości związanego z regulacją typu „light-touch”. Jeśli OpenAI lub Anthropic osiągną swoje cele AGI, a rząd uzna, że społeczeństwo nie musi być informowane, nie wydaje się, aby istniał prawny wymóg ujawniania informacji.