Współzałożyciel Ethereum, Vitalik Butertin, podzielił się swoim podejściem do „superinteligentnej” sztucznej inteligencji (AI), nazywając ją „ryzykowną” w odpowiedzi na ciągłe zmiany w kierownictwie OpenAI.
19 maja Cointelegraph poinformował, że były szef ds. dostosowania OpenAI, Jan Leike, złożył rezygnację ze stanowiska po tym, jak stwierdził, że osiągnął „punkt krytyczny” w kontaktach z zarządem w sprawie kluczowych priorytetów firmy.
Leike zarzucił, że w OpenAI „kultura i procesy bezpieczeństwa zeszły na drugi plan, a wiele z nich wskazywało na rozwój związany ze sztuczną inteligencją ogólną (AGI).
Oczekuje się, że AGI będzie rodzajem sztucznej inteligencji równym lub przewyższającym ludzkie zdolności poznawcze — myśl o tym zaczęła już niepokoić ekspertów z branży, którzy twierdzą, że świat nie jest odpowiednio przygotowany do zarządzania takimi superinteligentnymi systemami sztucznej inteligencji.
To nastawienie wydaje się być zgodne z poglądami Buterina. W poście na X podzielił się swoimi obecnymi przemyśleniami na ten temat, podkreślając, że nie powinniśmy spieszyć się z działaniem ani sprzeciwiać się tym, którzy próbują.
Źródło: Vitalik Buterin
Buterin podkreślił, że otwarte modele działające na sprzęcie konsumenckim stanowią „zabezpieczenie” na wypadek przyszłości, w której niewielki konglomerat firm będzie w stanie odczytywać i pośredniczyć w większości ludzkich myśli.
„Takie modele są również o wiele mniej ryzykowne pod względem zagłady niż korporacyjna megalomania i armia”.
To jego drugi komentarz w ciągu ostatniego tygodnia na temat sztucznej inteligencji i jej rosnących możliwości.
16 maja argumentował, że model GPT-4 OpenAI przekroczył już test Turinga, który określa „ludzkość” modelu AI. Przytoczył nowe badania, które twierdzą, że większość ludzi nie potrafi rozszyfrować, rozmawiając z maszyną.
Powiązane: Nowa funkcja przywracania „Black Mirror” firmy Microsoft rejestruje wszystko, co robisz
Jednak Buterin nie jest pierwszym, który wyraził tę obawę. Rząd Wielkiej Brytanii niedawno zbadał również rosnące zaangażowanie Big Tech w sektorze AI, podnosząc kwestie związane z konkurencją i dominacją rynkową.
W Internecie pojawiają się już grupy takie jak 6079 AI, które opowiadają się za zdecentralizowaną sztuczną inteligencją, aby zapewnić jej większą demokratyzację i brak zdominowania przez wielkie firmy technologiczne.
Źródło: 6079.ai
Nastąpiło to po odejściu innego starszego członka zespołu kierowniczego OpenAI 14 maja, kiedy Ilja Suckewer, współzałożyciel i główny naukowiec, ogłosił swoją rezygnację.
Sutskever nie wspomniał o żadnych obawach dotyczących AGI. Jednak w swoim poście na X wyraził pewność, że OpenAI opracuje AGI, które będzie „bezpieczne i korzystne”.
Czasopismo: „Sic AIs on each other” w celu zapobieżenia apokalipsie AI: David Brin, autor literatury science fiction