Meta đã thông báo tạm dừng ra mắt và đào tạo trợ lý AI của mình tại Châu Âu theo yêu cầu của Ủy ban Bảo vệ Dữ liệu Ireland (DPC).

Yêu cầu này được đưa ra sau khi DPC, cơ quan quản lý quyền riêng tư hàng đầu của Meta tại EU, yêu cầu công ty tạm dừng đào tạo mô hình ngôn ngữ lớn (LLM) sử dụng dữ liệu công khai do người dùng Facebook và Instagram chia sẻ.

Meta cho biết quyết định này khiến họ “thất vọng” và coi đó là “bước lùi” đối với sự cạnh tranh và đổi mới AI ở EU. Tuy nhiên, công ty khẳng định họ tuân thủ các quy định của Châu Âu.

DPC đã ủng hộ việc tạm dừng này, cho biết họ “hoan nghênh quyết định” và sẽ tiếp tục hợp tác với Meta sau những “sự tham gia sâu rộng” trước đó.

Theo tổ chức phi lợi nhuận về quyền riêng tư ở Châu Âu NOYB, yêu cầu tạm dừng hoạt động của Meta là kết quả của các khiếu nại từ chính họ, và các tổ chức khác như Hội đồng Người tiêu dùng Na Uy và một số cơ quan bảo vệ dữ liệu khác.

Vấn đề này đã diễn biến trong nhiều tháng. Meta cho biết họ đã thông báo cho các cơ quan bảo vệ dữ liệu Châu Âu về các hoạt động của mình kể từ tháng 3.

Tuy nhiên, tình hình trở nên nghiêm trọng hơn khi Meta bắt đầu thông báo cho người dùng về hoạt động đào tạo AI của mình thông qua hơn hai tỷ thông báo và email trong ứng dụng vào ngày 22/5. NOYB đã gửi khiếu nại tới 11 cơ quan bảo vệ dữ liệu vào ngày 6/6.

Meta thừa nhận đã tham vấn với DPC vào ngày 10/6 và cho biết họ đã tích hợp phản hồi để đảm bảo hoạt động đào tạo AI của mình tuân thủ luật AI.

Meta lưu ý rằng Google và OpenAI cũng đã sử dụng AI để đào tạo dữ liệu người dùng. Công ty dự kiến sẽ tuân thủ luật Quy định bảo vệ dữ liệu chung (GDPR) của EU trên cơ sở pháp lý về “Lợi ích hợp pháp,” một điều khoản linh hoạt mà các công ty AI khác đã dựa vào.

Việc tạm dừng này cho thấy sự phức tạp và thách thức trong việc áp dụng công nghệ AI, đặc biệt trong bối cảnh các quy định bảo vệ dữ liệu ngày càng nghiêm ngặt.