Cover Image

Dyrektor generalny Tether, Paolo Ardoino, zwrócił się niedawno do sieci społecznościowej X, aby ostrzec przed pułapkami związanymi ze scentralizowanymi modelami dużych języków (LLM). 

Ardoino zwrócił uwagę na doniesienia o OpenAI, wiodącej firmie zajmującej się generatywną sztuczną inteligencją, która na początku 2023 r. doświadczyła poważnego naruszenia bezpieczeństwa, określając incydent jako „przerażający”. 

Jak wynika z niedawnego raportu „The New York Times”, OpenAI zdecydowało się nie ujawniać naruszenia pomimo faktu, że niektóre wrażliwe informacje zostały ujawnione. 

karta

Były badacz OpenAI Leopold Aschenbrenner skrytykował firmę za nieodpowiednie środki bezpieczeństwa, które mogą narazić ją na ataki złośliwych podmiotów powiązanych z zagranicznymi rządami. Aschenbrenner twierdził, że przywódca AI zdecydował się zerwać z nim więzi ze względu na politykę. Firma zaprzeczyła jednak jakoby wspomniany incydent był przyczyną zwolnienia badacza, dodając, że naruszenie zostało ujawnione jeszcze zanim został zatrudniony w OpenAI. 

Mimo to istnieją pewne obawy, że tajemnice OpenAI trafią w ręce Chin, mimo że firma twierdzi, że ich obecna technologia nie stwarza żadnego zagrożenia dla bezpieczeństwa narodowego. 

karta

Oprócz incydentów związanych z bezpieczeństwem scentralizowane modele sztucznej inteligencji spotykają się również z krytyką za nieetyczne wykorzystanie danych i cenzurę. Szef Tether uważa, że ​​uwolnienie mocy lokalnych modeli sztucznej inteligencji to „jedyny sposób” rozwiązania problemów związanych z prywatnością, a także zapewnienia odporności i niezależności.  

„Lokalnie wykonywalne modele sztucznej inteligencji to jedyny sposób na ochronę prywatności ludzi i zapewnienie odporności/niezależności” – stwierdził Ardoino w poście w sieci społecznościowej X. 

Dodał, że nowoczesne smartfony i laptopy są wystarczająco mocne, aby dostroić ogólne LLM.