Dyrektor generalny platformy blockchain Tether, Paolo Ardoino twierdzi, że tylko zlokalizowanie modeli sztucznej inteligencji (AI) zapewni ochronę ludzi i prywatności. 

Ardoino powiedział, że lokalnie wykonywalne modele AI zapewnią również odporność i niezależność modeli.

Wskazał na najnowsze technologie dostępne dla użytkowników, takie jak smartfony i laptopy, twierdząc, że mają one wystarczającą moc, aby „dostroić ogólne modele wielkojęzyczne (LLM) na podstawie własnych danych użytkownika, zachowując ulepszenia lokalnie na urządzeniu”.

Post X zakończył się „WIP”, powszechnym akronimem oznaczającym „prace w toku”.

W rozmowie z Cointelegraph Ardoino powiedział, że lokalnie wykonywalne modele sztucznej inteligencji reprezentują „zmianę paradygmatu” w zakresie prywatności i niezależności użytkowników.

„Dzięki działaniu bezpośrednio na urządzeniu użytkownika, czy to smartfonie, czy laptopie, modele te eliminują potrzebę stosowania serwerów innych firm. To nie tylko gwarantuje, że dane pozostaną lokalne, zwiększając bezpieczeństwo i prywatność, ale także umożliwia korzystanie z nich w trybie offline”.

Powiedział, że pozwala to użytkownikom cieszyć się „zaawansowanymi doświadczeniami i analizą danych opartymi na sztucznej inteligencji”, zachowując jednocześnie pełną kontrolę nad swoimi informacjami.

Tether ogłosił niedawno swoją ekspansję na sztuczną inteligencję, na co Ardoino powiedział, że „aktywnie bada” integrację modeli wykonywalnych lokalnie ze swoimi rozwiązaniami AI.

Jest to odpowiedź na niedawne ogłoszenie włamania, którego doświadczył twórca sztucznej inteligencji OpenAI, mózg stojący za popularnym chatbotem ChatGPT.

Według raportów na początku 2023 r. haker uzyskał dostęp do wewnętrznych systemów przesyłania wiadomości OpenAI. Dzięki temu dostępowi udało im się naruszyć szczegóły projektu sztucznej inteligencji firmy.

Dwa źródła bliskie sprawie podały, że haker ukradł szczegóły z poufnych rozmów pomiędzy pracownikami OpenAI na temat technologii firmy.

Powiązane: Big Tech stanie przed poważnymi trudnościami finansowymi, jeśli wkrótce nie pojawi się sztuczna inteligencja na poziomie ludzkim

Ponadto użytkowników ChatGPT zaniepokoiło po ujawnieniu, że rozmowy użytkowników systemu macOS nie są szyfrowane, a raczej przechowywane w plikach tekstowych. 

Nastąpiło to wkrótce po ogłoszeniu przez Apple integracji ChatGPT z nową gamą produktów i usług opartych na sztucznej inteligencji „Apple Intelligence”.

Według doniesień problem został już rozwiązany, choć społeczność nadal zadaje sobie pytanie, dlaczego tak się stało. Niektóre hipotezy głosiły, że OpenAI będzie łatwo uzyskać dostęp do dzienników czatów w celu dalszego rozwoju i szkolenia ChatGPT.

OpenAI jest jednym z głównych twórców sztucznej inteligencji, który obecnie udostępnia modele sztucznej inteligencji wysokiego poziomu, obok Google, Meta i Microsoft. Analitycy branżowi, a nawet rządy na całym świecie, obawiają się, co monopol Big Tech na modele sztucznej inteligencji może oznaczać dla użytkowników w zakresie prywatności i kontroli danych.

Wiele osób wzywało nawet do decentralizacji sztucznej inteligencji, a inicjatywy takie jak 6079 opowiadały się za wyraźnym zakwestionowaniem dominacji Big Tech w branży sztucznej inteligencji na rzecz bardziej sprawiedliwej przyszłości.

Magazyn: Inwestorzy „Raider” plądrują DAO — Nouns i Aragon dzielą się swoimi doświadczeniami