TLDR:

  • Các nhà khoa học AI cảnh báo về những hậu quả thảm khốc tiềm tàng nếu con người mất quyền kiểm soát AI

  • Hệ thống giám sát toàn cầu và các kế hoạch dự phòng được thúc đẩy để ngăn ngừa rủi ro AI

  • Ba quy trình chính được đề xuất: chuẩn bị ứng phó khẩn cấp, đảm bảo an toàn và nghiên cứu độc lập

  • Hơn 30 chuyên gia từ nhiều quốc gia đã ký vào bản tuyên bố

  • Mối lo ngại nảy sinh về việc thiếu trao đổi khoa học giữa các siêu cường về mối đe dọa AI

Các chuyên gia về trí tuệ nhân tạo (AI) trên khắp thế giới đã đưa ra cảnh báo về những rủi ro tiềm ẩn liên quan đến các hệ thống AI tiên tiến.

Trong một tuyên bố được đưa ra vào ngày 16 tháng 9 năm 2024, hơn 30 nhà khoa học từ nhiều quốc gia, bao gồm Hoa Kỳ, Canada, Trung Quốc và Vương quốc Anh, đã kêu gọi thành lập một hệ thống giám sát toàn cầu để ngăn chặn "hậu quả thảm khốc" có thể xảy ra nếu con người mất quyền kiểm soát AI.

Tuyên bố này, dựa trên những phát hiện từ Đối thoại quốc tế về An toàn AI tại Venice, nhấn mạnh đến nhu cầu hợp tác và quản trị quốc tế trong phát triển AI.

Các nhà khoa học cho rằng sự an toàn của AI nên được công nhận là lợi ích công cộng toàn cầu, đòi hỏi những nỗ lực chung để giải quyết các rủi ro tiềm ẩn.

Một trong những mối quan tâm chính được nêu bật trong tuyên bố là khả năng mất quyền kiểm soát của con người đối với các hệ thống AI tiên tiến hoặc việc sử dụng chúng một cách có chủ đích. Các chuyên gia cảnh báo rằng những kịch bản như vậy có thể dẫn đến hậu quả thảm khốc cho nhân loại.

Họ chỉ ra rằng khoa học cần thiết để kiểm soát và bảo vệ AI tiên tiến vẫn chưa được phát triển, điều này nhấn mạnh tính cấp thiết của việc giải quyết những vấn đề này.

Để giải quyết những thách thức này, các nhà khoa học đề xuất ba quy trình chính.

  • Đầu tiên, họ kêu gọi thành lập các thỏa thuận và thể chế chuẩn bị khẩn cấp. Điều này sẽ liên quan đến việc phát triển các cơ quan chức năng trong mỗi quốc gia để phát hiện và ứng phó với các sự cố AI và rủi ro thảm khốc. Các cơ quan chức năng trong nước này sau đó sẽ hợp tác để tạo ra một kế hoạch dự phòng toàn cầu cho các sự cố nghiêm trọng liên quan đến AI.

  • Quy trình đề xuất thứ hai là triển khai khuôn khổ đảm bảo an toàn. Điều này sẽ yêu cầu các nhà phát triển AI cung cấp trường hợp an toàn có độ tin cậy cao trước khi triển khai các mô hình có khả năng vượt quá ngưỡng quy định. Khuôn khổ này cũng sẽ bao gồm giám sát sau triển khai và kiểm toán độc lập để đảm bảo an toàn liên tục.

  • Cuối cùng, các chuyên gia ủng hộ nghiên cứu độc lập về an toàn và xác minh AI toàn cầu. Nghiên cứu này sẽ tập trung vào việc phát triển các kỹ thuật để xác minh nghiêm ngặt các tuyên bố về an toàn do các nhà phát triển AI và có khả năng là các quốc gia khác đưa ra. Để đảm bảo tính độc lập, nghiên cứu sẽ được tiến hành trên toàn cầu và được tài trợ bởi nhiều chính phủ và nhà từ thiện.

Tuyên bố này được đưa ra vào thời điểm trao đổi khoa học giữa các siêu cường đang thu hẹp và sự ngờ vực giữa Hoa Kỳ và Trung Quốc đang gia tăng. Các nhà khoa học lập luận rằng sự thiếu hợp tác này khiến việc đạt được sự đồng thuận về các mối đe dọa AI trở nên khó khăn hơn, nhấn mạnh thêm nhu cầu đối thoại và hợp tác toàn cầu.

Vào đầu tháng 9 năm 2024, Hoa Kỳ, Liên minh Châu Âu và Vương quốc Anh đã ký hiệp ước AI quốc tế ràng buộc về mặt pháp lý đầu tiên trên thế giới. Thỏa thuận này ưu tiên quyền con người và trách nhiệm giải trình trong quy định về AI. Tuy nhiên, một số tập đoàn công nghệ và giám đốc điều hành đã bày tỏ lo ngại rằng việc quản lý quá mức có thể kìm hãm sự đổi mới, đặc biệt là ở Liên minh Châu Âu.

Nhóm chuyên gia AI ký vào tuyên bố bao gồm các nhà nghiên cứu từ các trường đại học và viện nghiên cứu AI hàng đầu, cũng như một số người đoạt giải Turing, được coi là giải thưởng tương đương với giải Nobel trong lĩnh vực điện toán.

Chuyên môn chung của họ có giá trị đáng kể đối với những lo ngại được nêu ra và các khuyến nghị được đưa ra trong tuyên bố.

Bài đăng Bảo vệ nhân loại khỏi AI: Các chuyên gia kêu gọi giám sát toàn cầu để ngăn chặn thảm họa AI tiềm ẩn xuất hiện đầu tiên trên Blockonomi.