Theo U.Today, Giám đốc điều hành Tether, Paolo Ardoino, đã bày tỏ lo ngại về những rủi ro liên quan đến các mô hình ngôn ngữ lớn tập trung (LLM). Bình luận của Ardoino được đưa ra sau các báo cáo về một vi phạm bảo mật nghiêm trọng tại OpenAI, một công ty AI hàng đầu, vào đầu năm 2023. Ông mô tả vụ việc là 'đáng sợ' và chỉ trích OpenAI vì đã không tiết lộ vi phạm, dẫn đến việc một số người bị lộ. thông tin nhạy cảm.

Cựu nhà nghiên cứu OpenAI Leopold Aschenbrenner cũng chỉ trích công ty vì các biện pháp bảo mật không đầy đủ mà ông tin rằng có thể khiến công ty dễ bị tấn công bởi các tác nhân độc hại có liên quan đến chính phủ nước ngoài. Aschenbrenner tuyên bố rằng ông đã bị sa thải khỏi công ty vì lý do chính trị, một tuyên bố mà OpenAI đã phủ nhận. Công ty tuyên bố rằng hành vi vi phạm đã được tiết lộ trước khi Aschenbrenner được tuyển dụng và việc sa thải ông không liên quan đến vụ việc.

Bất chấp sự đảm bảo của OpenAI, vẫn tồn tại những lo ngại về bí mật của công ty có khả năng rơi vào tay Trung Quốc. Tuy nhiên, OpenAI khẳng định rằng không có rủi ro an ninh quốc gia nào liên quan đến công nghệ hiện tại của họ.

Ngoài các sự cố bảo mật, các mô hình AI tập trung cũng bị chỉ trích vì sử dụng và kiểm duyệt dữ liệu phi đạo đức. Ardoino tin rằng giải pháp cho những vấn đề này nằm ở việc giải phóng sức mạnh của các mô hình AI địa phương. Ông tuyên bố rằng “các mô hình AI có thể thực thi cục bộ là cách duy nhất để bảo vệ quyền riêng tư của mọi người và đảm bảo khả năng phục hồi/độc lập”. Ardoino cũng lưu ý rằng điện thoại thông minh và máy tính xách tay hiện đại có đủ năng lượng để tinh chỉnh LLM chung.