Potrivit U.Today, CEO-ul Tether, Paolo Ardoino, și-a exprimat îngrijorarea cu privire la riscurile asociate modelelor lingvistice mari centralizate (LLM). Comentariile lui Ardoino au venit în urma unor rapoarte despre o încălcare semnificativă a securității la OpenAI, o companie lider de IA generativă, la începutul anului 2023. El a descris incidentul drept „înfricoșător” și a criticat OpenAI pentru că nu a dezvăluit încălcarea, ceea ce a dus la expunerea unora dintre ele. informatii sensibile.

Fostul cercetător OpenAI Leopold Aschenbrenner a criticat, de asemenea, compania pentru măsurile de securitate inadecvate, despre care crede că ar putea-o face vulnerabilă în fața unor actori rău intenționați legați de guverne străine. Aschenbrenner a susținut că a fost demis din companie din motive politice, afirmație pe care OpenAI a negat-o. Compania a declarat că încălcarea a fost dezvăluită înainte de angajarea lui Aschenbrenner și că concedierea acestuia nu a avut legătură cu incidentul.

În ciuda asigurărilor OpenAI, preocupările persistă cu privire la secretele companiei care ar putea cădea în mâinile Chinei. Cu toate acestea, OpenAI susține că nu există riscuri de securitate națională asociate cu tehnologia lor actuală.

Pe lângă incidentele de securitate, modelele AI centralizate au fost, de asemenea, criticate pentru utilizarea neetică a datelor și cenzură. Ardoino consideră că soluția la aceste probleme constă în deblocarea puterii modelelor locale de AI. El a declarat că „modelele AI executabile la nivel local sunt singura modalitate de a proteja confidențialitatea oamenilor și de a asigura rezistența/independența”. Ardoino a remarcat, de asemenea, că smartphone-urile și laptopurile moderne au putere suficientă pentru reglarea fină a LLM-urilor generale.