Według U.Today dyrektor generalny Tether Paolo Ardoino wyraził obawy związane z ryzykiem związanym ze scentralizowanymi modelami dużych języków (LLM). Uwagi Ardoino pojawiły się po doniesieniach o znaczącym naruszeniu bezpieczeństwa w OpenAI, wiodącej firmie zajmującej się generatywną sztuczną inteligencją, na początku 2023 r. Opisał incydent jako „przerażający” i skrytykował OpenAI za nieujawnienie naruszenia, co spowodowało ujawnienie niektórych Wrażliwa informacja.

Były badacz OpenAI Leopold Aschenbrenner również skrytykował firmę za nieodpowiednie środki bezpieczeństwa, które jego zdaniem mogą narazić ją na ataki złośliwych podmiotów powiązanych z obcymi rządami. Aschenbrenner twierdził, że został zwolniony z firmy z powodów politycznych, czemu OpenAI zaprzecza. Spółka oświadczyła, że ​​naruszenie zostało ujawnione przed zatrudnieniem Aschenbrennera i że jego zwolnienie nie miało związku ze zdarzeniem.

Pomimo zapewnień OpenAI utrzymują się obawy, że tajemnice firmy mogą dostać się w ręce Chin. Jednakże OpenAI utrzymuje, że obecna technologia nie stwarza żadnego zagrożenia dla bezpieczeństwa narodowego.

Oprócz incydentów związanych z bezpieczeństwem scentralizowane modele sztucznej inteligencji były również krytykowane za nieetyczne wykorzystanie danych i cenzurę. Ardoino uważa, że ​​rozwiązaniem tych problemów jest uwolnienie mocy lokalnych modeli AI. Stwierdził, że „wykonywalne lokalnie modele sztucznej inteligencji to jedyny sposób na ochronę prywatności ludzi i zapewnienie odporności/niezależności”. Ardoino zauważył również, że nowoczesne smartfony i laptopy mają wystarczającą moc, aby dostroić ogólne LLM.