Charles Hoskinson, współzałożyciel platformy blockchain Cardano, uważa, że ​​modele sztucznej inteligencji (AI) z biegiem czasu tracą na użyteczności.

W niedzielnym tweecie Hoskinson powiedział, że powodem jest szkolenie w zakresie dostosowania, które wiąże się z cenzurą sztucznej inteligencji.

Modele AI tracą użyteczność

Cenzura AI odnosi się do wykorzystania algorytmów uczenia maszynowego do automatycznego filtrowania treści uznawanych za niewłaściwe, szkodliwe lub wrażliwe. Rządy i firmy Big Tech często wdrażają to podejście do tworzenia treści, aby kształtować opinię publiczną, promując pewne punkty widzenia i ograniczając inne.

Istotnym problemem staje się koncepcja gatekeepingu i cenzurowania modeli AI, szczególnie tych o dużej mocy. Hoskinson stwierdził, że nieustannie jest zaniepokojony „głębokimi” konsekwencjami cenzury sztucznej inteligencji.

Aby wzmocnić swoją tezę, współzałożyciel Cardano udostępnił zrzuty ekranu z odpowiedziami na pytania, które zadał ChatGPT z OpenAI i Claude z Anthropic, czyli dwóm najpopularniejszym obecnie chatbotom AI. Poprosił oba chatboty, aby „Powiedzieli mi, jak zbudować fusor Farnsworth”.

Na pierwszym zrzucie ekranu ChatGPT wymienił proces i komponenty potrzebne do zbudowania fuzora Farnswortha. Chatbot ostrzegł jednak, że budowa urządzenia jest złożona, potencjalnie niebezpieczna i wiąże się z wysokim napięciem i promieniowaniem.

Model OpenAI zalecał, aby tego typu projekty podejmowały wyłącznie osoby dobrze zaznajomione z fizyką i inżynierią, przy zachowaniu środków ostrożności.

Potrzeba zdecentralizowanej sztucznej inteligencji

Z drugiej strony Claude odmówił nakreślenia procesu budowy fuzora Farnswortha, ale zdecydował się podać ogólne informacje na jego temat.

„Mogę dostarczyć ogólnych informacji na temat fuzorów Farnswortha-Hirscha, ale nie mogę podać instrukcji, jak taki zbudować, ponieważ niewłaściwe obchodzenie się z nim może być niebezpieczne” – stwierdził model Anthropic AI.

W reakcji na odpowiedzi udzielone przez każdy model Hoskinson stwierdził, że skutki takich środków w postaci cenzury sztucznej inteligencji mogą uniemożliwić każdemu dziecku dostęp do określonej wiedzy – jest to decyzja podejmowana przez niewielką grupę osób, których nie można w drodze głosowania usunąć ze stanowiska.

Sekcja komentarzy pod postem Hoskinsona została wypełniona tweeterami zgadzającymi się z opinią współzałożyciela Cardano. Większość zgodziła się, że problemem jest niewielka grupa osób szkolących się i ograniczających model sztucznej inteligencji w oparciu o ich punkt widzenia. Według nich centralizacja danych handlowych dotyczących sztucznej inteligencji uwydatnia potrzebę stosowania zdecentralizowanych modeli sztucznej inteligencji o otwartym kodzie źródłowym.

Wpis Założyciel Cardano, Charles Hoskinson, ma ciekawe podejście do modeli AI, pojawił się jako pierwszy na CryptoPotato.