Trong tương lai gần, người dùng ứng dụng AI tổng quát có thể tìm thấy các nhãn nêu rõ cách sử dụng AI, các rủi ro liên quan và quy trình thử nghiệm của nó. Tuân theo các hướng dẫn mới, nhãn sẽ được bắt buộc để giúp công chúng dễ hiểu hơn.
Cũng đọc: Liên minh Châu Âu (EU) đi đầu trong quy định về AI
Bộ trưởng Thông tin và Truyền thông Singapore, bà Josephine Teo, cho biết biện pháp mới này là nỗ lực nhằm xác định tiêu chuẩn minh bạch và thử nghiệm cho các công ty công nghệ. Cô ấy đã phát biểu tại hội nghị công nghệ Bảo vệ Dữ liệu Cá nhân vào ngày 15 tháng 7, theo báo cáo của Strait Times.
Các nhà phát triển ứng dụng AI nên minh bạch về những đổi mới của họ
Giống như thực tế về cách thuốc hoặc thiết bị gia dụng mang nhãn an toàn, trong cùng một thực tế, các nhà phát triển ứng dụng AI tổng hợp phải thông báo rõ ràng cho người dùng về việc sử dụng và phát triển mô hình AI. Bà Teo, đồng thời là Bộ trưởng phụ trách sáng kiến Quốc gia thông minh và An ninh mạng, cho biết:
“Chúng tôi sẽ khuyến nghị các nhà phát triển và nhà triển khai minh bạch với người dùng bằng cách cung cấp thông tin về cách hoạt động của các mô hình và ứng dụng AI tổng quát.”
Giải thích về các quy định sắp tới, Bộ trưởng cho biết chúng giống như khi người dùng mở “hộp thuốc không kê đơn”. Họ tìm thấy một tờ giấy ghi rõ cách sử dụng thuốc và “các tác dụng phụ mà bạn có thể gặp phải”.
Teo khẳng định, “mức độ minh bạch này” là cần thiết đối với các hệ thống AI được xây dựng trên một trí tuệ nhân tạo tổng hợp. Bộ quy tắc mới sẽ xác định các tiêu chuẩn an toàn cần được thực hiện trước khi mô hình AI được cung cấp cho công chúng.
Hướng dẫn về ẩn danh dữ liệu sẽ được phát hành vào năm 2025
Trí tuệ nhân tạo sáng tạo là một thể loại AI có khả năng tạo ra văn bản và hình ảnh mới và không thể đoán trước được như AI truyền thống. Theo hướng dẫn mới, người sáng tạo sẽ được yêu cầu đề cập đến rủi ro của việc phổ biến những lời dối trá, bình luận thù địch và tường thuật thiên vị trong nội dung.
Teo cho biết, các thiết bị gia dụng đều có nhãn mác ghi rõ mặt hàng đang được kiểm nghiệm độ an toàn khi sử dụng; nếu không, khách hàng sẽ không biết thiết bị có an toàn hay không. Điều tương tự cũng sẽ được thực hiện đối với các ứng dụng AI. Cơ quan Phát triển Truyền thông Infocomm của Singapore (IMDA) sẽ bắt đầu tham vấn với ngành về các quy định mới. Tuy nhiên, Teo không đề cập đến ngày ban hành các hướng dẫn.
IMDA cũng đã xuất bản một hướng dẫn về các vấn đề liên quan đến quyền riêng tư trong công nghệ, hướng dẫn này sẽ đáp ứng nhu cầu ngày càng tăng về dữ liệu để đào tạo các mô hình AI đồng thời bảo vệ quyền riêng tư của người dùng, Teo cho biết.
Cũng đọc: Hội nghị bàn tròn của đảng Dân chủ tổ chức Mark Cuban và Brad Garlinghouse để thảo luận về các quy định về tiền điện tử
Trợ lý giám đốc điều hành IMDA, Denise Wong cho biết, Việc giữ an toàn cho dữ liệu trong AI tạo ra là thách thức lớn hơn đối với ngành. Cô ấy đã đưa ra quan điểm của mình trong một cuộc thảo luận riêng về AI và quyền riêng tư dữ liệu trong sự kiện này. Đại diện từ các công ty công nghệ khác nhau tham gia hội thảo, bao gồm nhà sản xuất ChatGPT OpenAI và công ty tư vấn Accenture.
Jessica Gan Lee, người đứng đầu pháp lý về quyền riêng tư của OpenAI cho biết, các biện pháp bảo vệ dữ liệu nên được áp dụng ở tất cả các giai đoạn phát triển và triển khai AI. Cô cho biết các mô hình AI nên được đào tạo trên các tập dữ liệu đa dạng từ “mọi nơi trên thế giới”. Lee nhấn mạnh rằng nên đưa nhiều nền văn hóa, ngôn ngữ và nguồn vào quá trình đào tạo AI, cùng với việc tìm cách hạn chế việc xử lý dữ liệu cá nhân.
Teo cho biết hướng dẫn về ẩn danh dữ liệu sẽ được giới thiệu cho các công ty hoạt động tại ASEAN vào đầu năm 2025. Hướng dẫn này sẽ là kết quả của cuộc họp vào tháng 2 giữa các quan chức khu vực nhằm tìm ra cách tạo ra một hệ sinh thái kỹ thuật số toàn cầu an toàn.