Sau 90 ngày tự đánh giá, OpenAI đã công bố 5 biện pháp quan trọng nhằm tăng cường an toàn và bảo mật cho các mô hình AI của mình, thể hiện cam kết phát triển AI có trách nhiệm.

Ngày 16/9 OpenAI đã công bố 5 biện pháp quan trọng nhằm tăng cường an toàn và bảo mật cho các mô hình AI của mình sau 90 ngày tự thẩm định lại quy trình làm việc. Các biện pháp gồm việc thành lập ủy ban độc lập, nâng cao biện pháp bảo mật, tăng cường minh bạch và hợp tác với các tổ chức bên ngoài.

Động thái của OpenAI đang cho thấy nỗ lực không ngừng công ty trong việc phát triển các mô hình AI an toàn và đáng tin cậy. Đây là bước đi chiến lược nhằm đảm bảo sự phát triển và triển khai AI an toàn trong bối cảnh công nghệ này ngày càng phát triển.

Ủy ban An Toàn và Bảo Mật đóng vai trò then chốt

Cụ thể, OpenAI đã thành lập Ủy ban An toàn và Bảo mật với vai trò giám sát độc lập. Ủy ban này, do Zico Kolter – Giám đốc Khoa Học Máy Tính tại Đại học Carnegie Mellon – chủ trì, với nhiệm vụ giám sát các quy trình an toàn trong việc phát triển và triển khai các mô hình AI của OpenAI.

Các thành viên khác của ủy ban gồm Adam D’Angelo (đồng sáng lập Quora), Paul Nakasone (tướng Mỹ đã nghỉ hưu), và Nicole Seligman (nguyên Phó Chủ tịch và Cố vấn Pháp lý của Sony Corporation). Ủy ban này sẽ có thẩm quyền trì hoãn các bản phát hành mô hình nếu có lo ngại về an toàn.

Danh sách các thành viên tham dự vào ủy ban An toàn và Bảo mật của OpenAI. Nguồn: Internet.

Bên cạnh đó, doanh nghiệp sẽ tiếp tục áp dụng phương pháp quản lý rủi ro để bảo vệ các mô hình AI. OpenAI cho biết dự kiến tăng cường phân đoạn thông tin nội bộ, mở rộng đội ngũ bảo mật hoạt động 24/7 và đầu tư vào hạ tầng nghiên cứu và sản phẩm để nâng cao bảo mật.

Một sáng kiến nổi bật là việc xem xét phát triển Trung tâm Chia sẻ Thông tin và Phân tích (ISAC) cho ngành AI, nhằm chia sẻ thông tin về các mối đe dọa mạng giữa các tổ chức trong ngành.

OpenAI cam kết sẽ minh bạch dữ liệu hơn trong công việc của mình. Họ đã công bố thẻ hệ thống GPT-4o và o1-preview, cung cấp thông tin chi tiết về các đánh giá an toàn trước khi ra mắt mô hình. Các thẻ này cũng bao gồm kết quả đánh giá từ các tổ chức bên ngoài và biện pháp giảm thiểu rủi ro.

Ngoài ra, công ty cũng chủ động hợp tác với nhiều tổ chức nhằm thúc đẩy tiêu chuẩn an toàn cho ngành AI. Đặc biệt, OpenAI đang hợp tác với Los Alamos National Labs (Mỹ) để nghiên cứu cách sử dụng AI an toàn trong phòng thí nghiệm khoa học, cũng như với các viện an toàn AI của Mỹ và Anh để nghiên cứu các tiêu chuẩn an toàn AI. Họ đã tổ chức lại các nhóm nghiên cứu, an toàn và chính sách nhằm tạo ra một khung an toàn tích hợp cho việc phát triển và theo dõi mô hình AI.

Khung này sẽ được Ủy ban An toàn và Bảo mật phê duyệt và điều chỉnh khi các mô hình AI ngày càng trở nên phức tạp hơn.