Як повідомляє U.Today, генеральний директор Tether Паоло Ардоіно висловив занепокоєння щодо ризиків, пов’язаних із централізованими великими мовними моделями (LLM). Коментарі Ардоіно з’явилися після повідомлень про значне порушення безпеки в OpenAI, провідній компанії з виробництва штучного інтелекту, на початку 2023 року. Він назвав інцидент «страшним» і розкритикував OpenAI за те, що він не розкрив порушення, що призвело до викриття деяких конфіденційна інформація.

Колишній дослідник OpenAI Леопольд Ашенбреннер також критикував компанію за неадекватні заходи безпеки, які, на його думку, можуть зробити її вразливою для зловмисників, пов’язаних з іноземними урядами. Ашенбреннер стверджував, що його звільнили з компанії через політичні причини, твердження, яке OpenAI спростувала. У компанії заявили, що порушення було розкрито до працевлаштування Ашенбреннера і що його звільнення не було пов'язане з інцидентом.

Незважаючи на запевнення OpenAI, зберігаються побоювання щодо того, що секрети компанії можуть потрапити до рук Китаю. Проте OpenAI стверджує, що їх поточна технологія не несе ризиків національній безпеці.

Окрім інцидентів із безпекою, централізовані моделі ШІ також критикували за неетичне використання даних і цензуру. Ardoino вважає, що вирішення цих проблем полягає в розкритті потужності локальних моделей ШІ. Він заявив, що «локально виконувані моделі ШІ є єдиним способом захистити конфіденційність людей і забезпечити стійкість / незалежність». Ardoino також зазначив, що сучасні смартфони та ноутбуки мають достатню потужність для тонкої настройки загальних LLM.