Mặc dù OpenAI chưa bị kết luận vi phạm Quy định Bảo vệ Dữ liệu Chung (GDPR) của Liên minh Châu Âu khi phát triển ChatGPT, nhưng công ty vẫn đang đối mặt khoản tiền phạt lên đến 4% tổng doanh thu hàng năm.
Sau hơn một năm nghiên cứu và đánh giá, báo cáo từ Cơ quan Bảo vệ Dữ liệu Châu Âu (EDPB) tiết lộ họ đang cân nhắc các vấn đề pháp lý liên quan đến việc xử lý dữ liệu của OpenAI trong phát triển chatbot ChatGPT. Hiện cơ quan chưa đưa ra được phán quyết cuối cùng.
Vấn đề này khiến OpenAI đối mặt với những hình phạt có thể lên tới 4% tổng doanh thu hàng năm nếu bị xác định vi phạm. Trong khi đó, sự thiếu rõ ràng về hướng dẫn và quy định AI của EDPB, là một phần nguyên nhân khiến OpenAI và nhiều công ty khác đang trong tình trạng bấp bênh về mặt pháp lý.
Theo dự đoán của các chuyên gia, để tuân thủ quy định về quyền riêng tư của Châu Âu, OpenAI cần thực hiện nhiều thay đổi đáng kể trong cách thu thập và xử lý dữ liệu, bao gồm minh bạch hóa các quy trình, cung cấp quyền kiểm soát dữ liệu cho người dùng và tạo ra các biện pháp bảo vệ quyền riêng tư mạnh mẽ hơn.
Hiện tại, các cuộc điều tra về ChatGPT đang diễn ra tại một số quốc gia Châu Âu như Ý và Ba Lan. Cơ quan bảo vệ dữ liệu của Ý đã ban hành lệnh cấm tạm thời đối với ChatGPT vào tháng 4/2023, nhưng đã được dỡ bỏ sau khi OpenAI thực hiện một số thay đổi về quyền riêng tư. Tuy nhiên, cuộc điều tra của Ý vẫn tiếp tục và các cơ quan giám sát khác đang chờ đợi báo cáo cuối cùng trước khi đưa ra quyết định.
Hiện tại chưa có thông tin rõ ràng về việc OpenAI sẽ phải đối mặt với những hình phạt gì và thời điểm nào, nhưng sự phát triển nhanh chóng của ChatGPT và các công nghệ AI khác đã đặt ra nhiều thách thức mới cho luật bảo vệ dữ liệu. Việc quản lý các công nghệ này sẽ là một nhiệm vụ phức tạp và cần sự phối hợp chặt chẽ giữa các cơ quan quản lý và doanh nghiệp.