Naukowcy zajmujący się sztuczną inteligencją z Fundacji Dfinity — non-profit stojącej za Protokółem Komputerów Internetowych — oraz menedżerowie dewelopera zdecentralizowanej AI Onicai niedawno opublikowali Manifest dla Zdecentralizowanej AI. Manifest określił siedem punktów, aby zapewnić, że AI przynosi korzyści użytkownikowi końcowemu, w tym suwerenną AI, która działa na rzecz użytkownika, a nie dużych instytucji.

W wywiadzie dla Cointelegraph, dyrektor generalny Onicai, Patrick Friedrich, powiedział, że centralizacja AI stwarza potencjał do nadużyć przez potężne korporacje lub aktorów państwowych w celu kontrolowania i manipulowania populacjami w niemal absolutny sposób. Dyrektor generalny Onicai powiedział Cointelegraph:

"Idąc naprzód, z coraz większą liczbą agentów AI działających autonomicznie, nie wiemy, co wszyscy z nich mogą zrobić, i chcemy mieć pewność, że nie są one stronnicze wobec jakiegoś większego interesu — niezależnie od tego, czy są to rządy, partie polityczne, czy ogromne organizacje i firmy."

Według menedżera Onicai, rozwiązaniem problemu cenzury informacji lub manipulacji jest uruchamianie zdecentralizowanej AI za pomocą inteligentnych kontraktów w sieciach bez zezwolenia, które są niezmienne, open-source i bardzo przejrzyste.

Ten przejrzysty zestaw zasad rządziłby i ograniczał zachowanie AI oraz pozwalał użytkownikom uruchamiać swoją AI z niestandardowymi parametrami, korzystając z lokalnych metod przechowywania, zdecentralizowanych chmur lub nawet modeli hybrydowych — dając użytkownikom prawdziwą kontrolę nad całym stosem oprogramowania uruchamiającym ich AI.

Manifest dla Zdecentralizowanej Sztucznej Inteligencji. Źródło: Dfinity

Tłumienie innowacji i ignorowanie niszy

„Nie sądzę, abyśmy podchodzili z kierunku strachu, ale naprawdę z kierunku potencjału, jaki ma AI,” powiedział Arjaan Buijk, dyrektor techniczny Onicai.

Buijk powiedział Cointelegraph, że firmy zajmujące się AI koncentrują się na budowaniu modeli sztucznej inteligencji ogólnego przeznaczenia, zamiast modeli dostosowanych do konkretnych potrzeb lub niszowych. Brak rentowności oznacza, że niszowe i unikalne wdrożenia modeli AI nigdy się nie materializują. To tłumi innowacje i ogranicza potencjał wzrostu AI.

Sojusz Sztucznej Superinteligencji (ASI) uruchomił zdecentralizowaną sztuczną inteligencję Cortex w listopadzie 2024 roku z tego powodu. Cortex to sztuczna inteligencja klasy enterprise dla potrzeb przemysłowych, która pozwala firmom dostosowywać modele AI do ich potrzeb i zmniejszać zależność od ogólnego, scentralizowanego AI.

Michael Casey, współzałożyciel Zdecentralizowanego Towarzystwa AI, niedawno powiedział Cointelegraph, że grupa non-profit bada alternatywne metody finansowania projektów AI jako przeciwwagę dla projektów finansowanych przez kapitał ryzykowny.

11 listopada, dyrektor generalny Anthropic, Dario Amodei, powiedział Lexowi Fridmanowi, że AI na poziomie ludzkim może się pojawić w 2026 lub do 2027 roku.

Przewidywanie Amodei, że sztuczna inteligencja ogólnego przeznaczenia (AGI) zmaterializuje się do 2027 roku, jest latami przed wcześniejszymi prognozami ekspertów w dziedzinie sztucznej inteligencji, którzy przewidywali pojawienie się AGI w latach trzydziestych XXI wieku lub później.

Magazyn: Plan ‘piekła’ dronów AI dla Tajwanu, LLM-y zbyt głupie, by zniszczyć ludzkość: AI Eye