Cover Image

Генеральний директор Tether Паоло Ардоіно нещодавно звернувся до соціальної мережі X, щоб попередити про підводні камені централізованих великих мовних моделей (LLM). 

Ardoino вказав на звіти про те, що на початку 2023 року OpenAI, провідна компанія з виробництва штучного інтелекту, зазнала серйозного порушення безпеки, описавши інцидент як «страшний». 

Відповідно до нещодавнього звіту The New York Times, OpenAI вирішила не розголошувати про порушення, незважаючи на те, що деяка конфіденційна інформація була розкрита. 

картку

Колишній дослідник OpenAI Леопольд Ашенбреннер розкритикував компанію за неадекватні заходи безпеки, які могли зробити її вразливою для зловмисників, пов’язаних з іноземними урядами. Ашенбреннер заявив, що лідер AI вирішив розірвати з ним стосунки через політику. Однак компанія заперечила, що вищезгаданий інцидент став причиною звільнення дослідника, додавши, що порушення було розкрито ще до того, як він був прийнятий на роботу в OpenAI. 

Тим не менш, є деякі занепокоєння щодо того, що секрети OpenAI опинилися в руках Китаю, незважаючи на те, що компанія стверджує, що їхні поточні технології не становлять ризиків для національної безпеки. 

картку

Окрім інцидентів безпеки, централізовані моделі штучного інтелекту також зазнають критики за неетичне використання даних і цензуру. Керівник Tether вважає, що розблокування потужності локальних моделей штучного інтелекту є «єдиним способом» вирішити проблеми конфіденційності, а також забезпечити стійкість і незалежність.  

«Локально виконувані моделі штучного інтелекту — це єдиний спосіб захистити конфіденційність людей і забезпечити стійкість/незалежність», — сказав Ardoino у дописі в соціальних мережах X. 

Він додав, що сучасні смартфони та ноутбуки достатньо потужні для тонкого налаштування загальних LLM.