Một nhóm các nhà khoa học về trí tuệ nhân tạo đang kêu gọi các quốc gia tạo ra một hệ thống giám sát toàn cầu để ngăn chặn "hậu quả thảm khốc" tiềm ẩn nếu con người mất quyền kiểm soát AI.

Trong một tuyên bố được đưa ra vào ngày 16 tháng 9, một nhóm các nhà khoa học AI có ảnh hưởng đã nêu lên mối lo ngại rằng công nghệ mà họ giúp phát triển có thể gây ra tác hại nghiêm trọng nếu mất đi sự kiểm soát của con người.

“Việc mất kiểm soát của con người hoặc sử dụng sai mục đích các hệ thống AI này có thể dẫn đến hậu quả thảm khốc cho toàn thể nhân loại”, tuyên bố viết trước khi tiếp tục:

“Thật không may, chúng ta vẫn chưa phát triển được nền khoa học cần thiết để kiểm soát và bảo vệ việc sử dụng trí thông minh tiên tiến như vậy.”

Các nhà khoa học nhất trí rằng các quốc gia cần phát triển các cơ quan có thẩm quyền để phát hiện và ứng phó với các sự cố AI và rủi ro thảm khốc trong phạm vi quyền hạn của họ và cần phải xây dựng một "kế hoạch dự phòng toàn cầu".

“Về lâu dài, các quốc gia nên xây dựng một chế độ quản trị quốc tế để ngăn chặn sự phát triển của các mô hình có thể gây ra rủi ro thảm khốc toàn cầu.”

Tuyên bố này dựa trên những phát hiện từ Đối thoại quốc tế về An toàn AI tại Venice vào đầu tháng 9, cuộc họp thứ ba thuộc loại này do nhóm nghiên cứu phi lợi nhuận của Hoa Kỳ là Diễn đàn AI an toàn tổ chức.

Giáo sư Gillian Hadfield của Đại học Johns Hopkins, người đã chia sẻ tuyên bố này trong một bài đăng trên X, cho biết: "Nếu chúng ta gặp phải một thảm họa nào đó sau sáu tháng nữa, nếu chúng ta phát hiện ra có những mô hình bắt đầu tự cải thiện một cách tự động, bạn sẽ gọi cho ai?"

Nguồn: Gillian Hadfield

Họ tuyên bố rằng an toàn AI được công nhận là lợi ích công cộng toàn cầu, đòi hỏi sự hợp tác và quản lý quốc tế.

Các nhà phát triển AI đã đề xuất ba quy trình chính: các thỏa thuận và thể chế chuẩn bị ứng phó khẩn cấp, khuôn khổ đảm bảo an toàn và nghiên cứu xác minh và an toàn AI toàn cầu độc lập.

Tuyên bố có hơn 30 người ký tên từ Hoa Kỳ, Canada, Trung Quốc, Anh, Singapore và các quốc gia khác. Nhóm này bao gồm các chuyên gia từ các viện nghiên cứu AI và trường đại học hàng đầu và một số người đoạt giải Turing, tương đương với giải Nobel về điện toán.

Các nhà khoa học cho biết cuộc đối thoại là cần thiết do sự trao đổi khoa học giữa các siêu cường đang thu hẹp và sự ngờ vực ngày càng tăng giữa Hoa Kỳ và Trung Quốc, làm tăng thêm khó khăn trong việc đạt được sự đồng thuận về các mối đe dọa từ AI.

Vào đầu tháng 9, Hoa Kỳ, EU và Vương quốc Anh đã ký hiệp ước AI quốc tế có ràng buộc pháp lý đầu tiên trên thế giới, ưu tiên quyền con người và trách nhiệm giải trình trong quy định về AI.

Tuy nhiên, các tập đoàn công nghệ và giám đốc điều hành cho biết việc quản lý quá mức có thể kìm hãm sự đổi mới, đặc biệt là ở Liên minh châu Âu.

Tạp chí: Kế hoạch 'địa ngục' của máy bay không người lái AI cho Đài Loan, LLM quá ngu ngốc để tiêu diệt nhân loại: AI Eye