Cover Image

Tether izpilddirektors Paolo Ardoino nesen apmeklēja X sociālo mediju tīklu, lai brīdinātu par centralizēto lielo valodu modeļu (LLM) kļūmēm. 

Ardoino norādīja uz ziņojumiem par OpenAI, vadošo ģeneratīvo AI uzņēmumu, kas cieta no liela drošības pārkāpuma 2023. gada sākumā, un šo incidentu raksturoja kā "biedējošu". 

Saskaņā ar jaunāko The New York Times ziņojumu OpenAI izvēlējās neizpaust pārkāpumu, neskatoties uz to, ka tika atklāta daļa sensitīvas informācijas. 

karti

Bijušais OpenAI pētnieks Leopolds Ašenbrenners kritizēja uzņēmumu par tā neatbilstošajiem drošības pasākumiem, kas varētu padarīt to neaizsargātu pret ļaunprātīgiem dalībniekiem, kas saistīti ar ārvalstu valdībām. Ašenbreners apgalvoja, ka AI vadītājs izvēlējās saraut ar viņu attiecības politikas dēļ. Tomēr uzņēmums noliedza, ka iepriekš minētais incidents būtu iemesls, kāpēc pētnieks tika atlaists, piebilstot, ka pārkāpums tika atklāts pat pirms viņa pieņemšanas darbā OpenAI. 

Tomēr pastāv bažas par to, ka OpenAI noslēpumi nonāk Ķīnas rokās, neskatoties uz to, ka uzņēmums apgalvo, ka ar viņu pašreizējām tehnoloģijām nav valsts drošības risku. 

karti

Papildus drošības incidentiem centralizētie AI modeļi tiek kritizēti arī par neētisku datu izmantošanu un cenzūru. Tether boss uzskata, ka vietējo AI modeļu jaudas atbloķēšana ir "vienīgais veids", kā risināt privātuma problēmas, kā arī nodrošināt izturību un neatkarību.  

"Lokāli izpildāmi AI modeļi ir vienīgais veids, kā aizsargāt cilvēku privātumu un nodrošināt noturību / neatkarību," Ardoino teica ierakstā X sociālo mediju tīklā. 

Viņš ir piebildis, ka mūsdienu viedtālruņi un klēpjdatori ir pietiekami jaudīgi, lai precizētu vispārējos LLM.