Một nhóm các nhà khoa học trí tuệ nhân tạo hàng đầu đã phát hành thư ngỏ cảnh báo về những nguy cơ nghiêm trọng nếu con người mất kiểm soát đối với AI. Họ kêu gọi hợp tác quốc tế để xây dựng hệ thống giám sát toàn cầu nhằm giảm thiểu rủi ro.

Ngày 16/9, các chuyên gia AI từ khắp nơi trên thế giới, bao gồm những người từng đoạt giải Turing, đã cảnh báo về nguy cơ thảm họa nếu trí tuệ nhân tạo vượt ngoài khả năng kiểm soát. Họ chỉ ra rằng sự phát triển của các hệ thống AI hiện nay đã vượt qua khả năng quản lý và bảo vệ cần thiết. 

“Chúng ta chưa có được nền tảng khoa học đủ mạnh để đảm bảo an toàn khi sử dụng các hệ thống AI tiên tiến,” nhóm chuyên gia nhận định. Nếu không có các biện pháp kiểm soát chặt chẽ, AI có thể gây ra những thiệt hại không thể khắc phục trên quy mô toàn cầu.

Nhóm chuyên gia đề xuất cần có hệ thống giám sát và phản ứng nhanh để phát hiện các sự cố liên quan đến AI. Điều này đòi hỏi sự hợp tác quốc tế, trong đó các chính phủ trên thế giới phải đóng vai trò tích cực. Họ nhấn mạnh cần phát triển một kế hoạch dự phòng toàn cầu để xử lý và giảm thiểu các rủi ro có thể xảy ra từ các hệ thống AI tiên tiến.

Hợp tác quốc tế được coi là chìa khóa đảm bảo an toàn AI

Bức thư này bắt nguồn từ các lo ngại được thảo luận tại Hội nghị Đối thoại Quốc tế về An toàn AI tại Venice vào đầu tháng 9. Cuộc họp, do Diễn đàn An toàn AI tổ chức, đã quy tụ các chuyên gia từ khắp nơi trên thế giới nhằm đối phó với những rủi ro ngày càng tăng do sự phát triển không kiểm soát của AI.

Những đề xuất chính từ nhóm bao gồm việc thành lập các tổ chức dự phòng khẩn cấp, một khung đảm bảo an toàn toàn diện và việc thiết lập nghiên cứu độc lập về an toàn và xác minh AI trên phạm vi toàn cầu. Nỗ lực quốc tế này sẽ đảm bảo rằng công nghệ AI được phát triển và triển khai theo cách giảm thiểu rủi ro trong khi vẫn duy trì sự kiểm soát đối với tiến bộ của nó.

Giáo sư Gillian Hadfield từ Đại học Johns Hopkins, người đã chia sẻ tuyên bố này trên X (trước đây là Twitter), đặt câu hỏi: “Nếu xảy ra thảm họa trong vòng sáu tháng tới, nếu chúng ta phát hiện các mô hình AI đang tự cải tiến một cách tự động, thì ai sẽ là người giải quyết?”

Tuy nhiên, căng thẳng chính trị giữa Mỹ và Trung Quốc đã làm suy giảm đáng kể hợp tác khoa học, gây khó khăn cho việc thống nhất về các biện pháp an toàn AI. Điều này càng nhấn mạnh sự cấp bách của việc xây dựng một hệ thống hợp tác toàn cầu để đối phó với nguy cơ tiềm tàng từ AI.

Mặc dù có những khó khăn, vẫn có những bước tiến đáng kể trong việc điều chỉnh AI. Vào đầu tháng 9, Mỹ, EU và Anh đã ký kết một hiệp ước quốc tế ràng buộc pháp lý đầu tiên về AI, nhấn mạnh quyền con người và trách nhiệm giải trình trong quá trình phát triển công nghệ này. Tuy nhiên, nhiều công ty công nghệ lo ngại rằng việc thắt chặt quy định có thể làm giảm khả năng sáng tạo, đặc biệt ở các khu vực như Liên minh Châu Âu.

Lá thư, được ký bởi hơn 30 chuyên gia AI từ các quốc gia như Mỹ, Canada, Trung Quốc, Anh và Singapore, đã nhấn mạnh tầm quan trọng của một cách tiếp cận toàn cầu. Nhóm chuyên gia kêu gọi các quốc gia cùng xây dựng một khung quản lý quốc tế mạnh mẽ, nhằm đảm bảo trí tuệ nhân tạo phát triển có kiểm soát và không gây ra thảm họa tiềm tàng cho nhân loại.