Współzałożyciel Ethereum, Vitalik Butertin, podzielił się swoim podejściem do „superinteligentnej” sztucznej inteligencji (AI), nazywając ją „ryzykowną” w odpowiedzi na ciągłe zmiany w kierownictwie OpenAI.

19 maja Cointelegraph poinformował, że były szef ds. dostosowania OpenAI, Jan Leike, złożył rezygnację ze stanowiska po tym, jak stwierdził, że osiągnął „punkt krytyczny” w kontaktach z zarządem w sprawie kluczowych priorytetów firmy.

Leike zarzucił, że w OpenAI „kultura i procesy bezpieczeństwa zeszły na drugi plan, a wiele z nich wskazywało na rozwój związany ze sztuczną inteligencją ogólną (AGI).

Oczekuje się, że AGI będzie rodzajem sztucznej inteligencji równym lub przewyższającym ludzkie zdolności poznawcze — myśl o tym zaczęła już niepokoić ekspertów z branży, którzy twierdzą, że świat nie jest odpowiednio przygotowany do zarządzania takimi superinteligentnymi systemami sztucznej inteligencji.

To nastawienie wydaje się być zgodne z poglądami Buterina. W poście na X podzielił się swoimi obecnymi przemyśleniami na ten temat, podkreślając, że nie powinniśmy spieszyć się z działaniem ani sprzeciwiać się tym, którzy próbują.

Źródło: Vitalik Buterin

Buterin podkreślił, że otwarte modele działające na sprzęcie konsumenckim stanowią „zabezpieczenie” na wypadek przyszłości, w której niewielki konglomerat firm będzie w stanie odczytywać i pośredniczyć w większości ludzkich myśli.

„Takie modele są również o wiele mniej ryzykowne pod względem zagłady niż korporacyjna megalomania i armia”.

To jego drugi komentarz w ciągu ostatniego tygodnia na temat sztucznej inteligencji i jej rosnących możliwości.

16 maja argumentował, że model GPT-4 OpenAI przekroczył już test Turinga, który określa „ludzkość” modelu AI. Przytoczył nowe badania, które twierdzą, że większość ludzi nie potrafi rozszyfrować, rozmawiając z maszyną.

Powiązane: Nowa funkcja przywracania „Black Mirror” firmy Microsoft rejestruje wszystko, co robisz

Jednak Buterin nie jest pierwszym, który wyraził tę obawę. Rząd Wielkiej Brytanii niedawno zbadał również rosnące zaangażowanie Big Tech w sektorze AI, podnosząc kwestie związane z konkurencją i dominacją rynkową.

W Internecie pojawiają się już grupy takie jak 6079 AI, które opowiadają się za zdecentralizowaną sztuczną inteligencją, aby zapewnić jej większą demokratyzację i brak zdominowania przez wielkie firmy technologiczne.

Źródło: 6079.ai

Nastąpiło to po odejściu innego starszego członka zespołu kierowniczego OpenAI 14 maja, kiedy Ilja Suckewer, współzałożyciel i główny naukowiec, ogłosił swoją rezygnację.

Sutskever nie wspomniał o żadnych obawach dotyczących AGI. Jednak w swoim poście na X wyraził pewność, że OpenAI opracuje AGI, które będzie „bezpieczne i korzystne”.

Czasopismo: „Sic AIs on each other” w celu zapobieżenia apokalipsie AI: David Brin, autor literatury science fiction