Cover Image

Giám đốc điều hành Tether, Paolo Ardoino, gần đây đã lên mạng xã hội X để cảnh báo về những cạm bẫy của các mô hình ngôn ngữ lớn tập trung (LLM). 

Ardoino chỉ ra các báo cáo về OpenAI, công ty AI hàng đầu, bị vi phạm an ninh lớn vào đầu năm 2023, mô tả vụ việc là “đáng sợ”. 

Theo một báo cáo gần đây của The New York Times, OpenAI đã chọn không tiết lộ hành vi vi phạm mặc dù thực tế là một số thông tin nhạy cảm đã bị lộ. 

Thẻ

Cựu nhà nghiên cứu OpenAI Leopold Aschenbrenner đã chỉ trích công ty vì các biện pháp bảo mật không đầy đủ có thể khiến công ty dễ bị tấn công bởi các tác nhân độc hại có liên quan đến chính phủ nước ngoài. Aschenbrenner tuyên bố rằng nhà lãnh đạo AI đã chọn cắt đứt quan hệ với ông vì lý do chính trị. Tuy nhiên, công ty phủ nhận rằng vụ việc nói trên là nguyên nhân khiến nhà nghiên cứu bị sa thải, đồng thời nói thêm rằng vi phạm đã được tiết lộ ngay cả trước khi anh ta được OpenAI thuê. 

Tuy nhiên, vẫn có một số lo ngại về việc bí mật của OpenAI sẽ rơi vào tay Trung Quốc mặc dù công ty này tuyên bố rằng không có rủi ro an ninh quốc gia nào với công nghệ hiện tại của họ. 

Thẻ

Ngoài sự cố bảo mật, các mô hình AI tập trung còn phải đối mặt với những chỉ trích về việc sử dụng và kiểm duyệt dữ liệu phi đạo đức. Ông chủ Tether tin rằng việc giải phóng sức mạnh của các mô hình AI địa phương là “cách duy nhất” để giải quyết những lo ngại về quyền riêng tư cũng như đảm bảo khả năng phục hồi và tính độc lập.  

Ardoino cho biết trong một bài đăng trên mạng truyền thông xã hội X: “Các mô hình AI có thể thực thi cục bộ là cách duy nhất để bảo vệ quyền riêng tư của mọi người và đảm bảo khả năng phục hồi/độc lập”. 

Ông nói thêm rằng điện thoại thông minh và máy tính xách tay hiện đại đủ mạnh để tinh chỉnh LLM chung.