Theo một báo cáo mới của cơ quan giám sát quyền riêng tư của EU, ChatGPT, chatbot lan truyền từ OpenAI, vẫn chưa đáp ứng được các tiêu chuẩn về độ chính xác dữ liệu của Liên minh Châu Âu. 

Cũng đọc: Đạo luật AI của Châu Âu được phê duyệt cuối cùng với mức phạt lên tới 38 triệu đô la

Báo cáo của Ủy ban Bảo vệ Dữ liệu Liên minh Châu Âu (EDPB) không phải là tài liệu pháp lý. Tuy nhiên, nó sẽ cung cấp một cách tiếp cận chung để quản lý ChatGPT trên 27 quốc gia thành viên của EU.

ChatGPT không tuân thủ các tiêu chuẩn dữ liệu

Các cơ quan giám sát quốc gia đã thành lập ‘lực lượng đặc nhiệm ChatGPT’ vào năm ngoái dưới sự kích thích của các vụ kiện đang diễn ra ở một số nước châu Âu chống lại mô hình AI. Lực lượng đặc nhiệm thuộc EDPB.

Trong một báo cáo công bố ngày 24 tháng 5, lực lượng đặc nhiệm cho biết:

“Mặc dù các biện pháp được thực hiện để tuân thủ nguyên tắc minh bạch có lợi trong việc tránh hiểu sai kết quả đầu ra của ChatGPT, nhưng chúng không đủ để tuân thủ nguyên tắc về độ chính xác của dữ liệu.”

Các mô hình ngôn ngữ lớn, hay LLM, nổi tiếng là “gây ảo giác” – công nghệ nói đến khi các chatbot AI đưa ra những lời nói dối, thường là một cách tự tin.

Các chatbot như ChatGPT hoặc Gemini của Google được hỗ trợ bởi LLM.  Theo Quy định bảo vệ dữ liệu chung (GDPR) nghiêm ngặt của Châu Âu, người dùng có thể kiện nếu bị trình bày sai hoặc bị từ chối cơ hội sửa thông tin không chính xác về bản thân.

Theo báo cáo của lực lượng đặc nhiệm, “Do tính chất xác suất của hệ thống (AI), phương pháp đào tạo hiện tại dẫn đến một mô hình cũng có thể tạo ra các kết quả đầu ra sai lệch hoặc bịa đặt”.

Nó cho biết thêm: “Các kết quả đầu ra do ChatGPT cung cấp có thể được người dùng cuối coi là chính xác về mặt thực tế, bao gồm cả thông tin liên quan đến các cá nhân, bất kể độ chính xác thực tế của họ”.

Cờ Liên minh châu Âu. Nguồn: Pixabay EU tăng cường tuân thủ

OpenAI trước đây đã viện dẫn sự phức tạp về mặt kỹ thuật khiến họ không thể sửa được thông tin sai lệch, nhưng cơ quan giám sát của Liên minh Châu Âu đang tăng gấp đôi.

Lực lượng đặc nhiệm lưu ý: “Đặc biệt, sự bất khả thi về mặt kỹ thuật không thể được viện dẫn để biện minh cho việc không tuân thủ các yêu cầu này”.

Trong một vụ án mới được mở ra, một nhân vật của công chúng Áo đang kiện ChatGPT vì không sửa ngày sinh của họ. OpenAI cho biết làm như vậy sẽ không khả thi về mặt kỹ thuật, nhưng báo cáo mới này sẽ gây thêm áp lực lên mô hình AI.

Luật sư bảo vệ dữ liệu có liên quan đến vụ án, Maartje de Graaf, cho biết các công ty hiện không thể làm cho các chatbot AI tuân thủ luật pháp EU khi xử lý dữ liệu về các cá nhân.

“Nếu một hệ thống không thể tạo ra kết quả chính xác và minh bạch thì nó không thể được sử dụng để tạo ra dữ liệu về các cá nhân. Công nghệ này phải tuân theo các yêu cầu pháp lý chứ không phải ngược lại,” de Graaf nói.

Mối lo ngại về an toàn xuất hiện tại OpenAI

Các chuyên gia cho biết ChatGPT sẽ yêu cầu những thay đổi đầy tham vọng để tránh vi phạm GDPR, quy định về bảo vệ dữ liệu ở Liên minh Châu Âu.

Các quy tắc này cũng cung cấp mô hình hoạt động cho luật dữ liệu ở Argentina, Brazil, Chile, Nhật Bản, Kenya, Mauritius, Nam Phi, Hàn Quốc, Thổ Nhĩ Kỳ và Vương quốc Anh.

Cũng đọc: OpenAI loại bỏ ChatGPT Voice sau tranh cãi của Scarlett Johansson

Trong khi đó, cam kết của OpenAI đối với sự an toàn của người dùng đã bị đặt dấu hỏi.

Công ty đã phải hứng chịu hàng loạt vụ từ chức cấp cao, với sự ra đi của người đồng sáng lập Ilya Sutskever, Gretchen Krueger, Jan Leike và nửa tá người khác tạo nên một trường hợp thay đổi văn hóa.

Đầu tuần này, OpenAI đã thông báo đình chỉ giọng nói ChatGPT ‘Sky’ sau khi lo ngại nó giống giọng của nữ diễn viên Scarlett Johansson trong bộ phim có chủ đề AI, Her.

Báo cáo về tiền điện tử của Jeffrey Gogo