Theo Tổng thư ký LHQ António Guterres, sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đang làm gia tăng nguy cơ xảy ra chiến tranh hạt nhân. 

Guterres nhấn mạnh rằng nhân loại đang đứng trước nguy cơ bị đe dọa khi các quốc gia cạnh tranh để tạo ra loại vũ khí tiên tiến nhất, gây nguy hiểm đến tính mạng của vô số người. The Guardian đưa tin rằng video cảnh báo của ông dự kiến ​​​​sẽ được trình chiếu tại hội nghị thường niên của Hiệp hội Kiểm soát Vũ khí Hoa Kỳ (ACA) ở Washington vào ngày 7 tháng 6. Guterres kêu gọi các quốc gia có vũ khí hạt nhân nối lại đối thoại và cam kết thực hiện chính sách không sử dụng đầu tiên.

AI và vũ khí hạt nhân: Sự kết hợp nguy hiểm

Guterres bày tỏ lo ngại về sự suy yếu của các hệ thống được thiết kế để ngăn chặn việc sử dụng, thử nghiệm và phổ biến vũ khí hạt nhân kể từ khi Chiến tranh Lạnh kết thúc. Ngày càng có nhiều lo ngại rằng các quốc gia như Mỹ và Nga có thể dựa vào AI để hợp lý hóa các thủ tục phóng hạt nhân. Cả hai quốc gia được cho là đã đặt tên lửa đạn đạo xuyên lục địa trong tình trạng báo động cao, sẵn sàng phóng trong vòng vài phút. Guterres nhấn mạnh rằng các quyết định liên quan đến việc sử dụng vũ khí hạt nhân phải được thực hiện bởi con người chứ không phải máy móc hay thuật toán.

Vào năm 2022, Mỹ, Anh và Pháp đã đưa ra một tuyên bố chung khẳng định cam kết của họ trong việc duy trì sự kiểm soát của con người đối với các vụ phóng hạt nhân. Tuy nhiên, Nga và Trung Quốc vẫn chưa đưa ra cam kết tương tự. Theo Liên đoàn các nhà khoa học Mỹ, số lượng vũ khí hạt nhân đã giảm từ 70.300 năm 1986 xuống còn 12.100 vào năm 2023.

Cảnh báo khoa học về AI

Cảnh báo của Guterres là một phần trong mối quan ngại rộng lớn hơn được nhiều nhà khoa học bày tỏ về mối nguy hiểm do AI gây ra. Một báo cáo năm 2018 của Rand Corporation nhấn mạnh rằng sự phát triển AI làm tăng nguy cơ chiến tranh hạt nhân. Báo cáo lưu ý rằng AI, học máy và phân tích dữ liệu lớn có thể nâng cao khả năng của quân đội trong việc xác định vị trí, theo dõi, nhắm mục tiêu và tiêu diệt lực lượng hạt nhân của đối thủ. 

Cựu giám đốc sản phẩm Google Bilawal Sidhu cũng đã bình luận về cuộc tranh luận về AI, cho rằng AI có thể được quản lý như công nghệ hạt nhân hoặc bị bỏ ngỏ. Ông lập luận rằng AI nguồn mở sẽ cho phép các tác nhân giỏi giám sát và giảm thiểu hành động của những kẻ xấu, giảm thiểu rủi ro. Trong một cuộc phỏng vấn với Newsweek, cựu Ngoại trưởng Hoa Kỳ Henry Kissinger đã mô tả AI là hệ quả nhưng khó dự đoán hơn vũ khí hạt nhân. Kissinger tin rằng những rủi ro của AI có thể được quản lý thông qua hợp tác và quy định quốc tế.

Kêu gọi hợp tác toàn cầu

Thông điệp của Guterres kêu gọi hợp tác quốc tế khẩn cấp để giải quyết những rủi ro liên quan đến AI trong hệ thống vũ khí hạt nhân. Ông nhấn mạnh rằng đối thoại và thỏa thuận toàn cầu là rất quan trọng để ngăn chặn sự leo thang của các mối đe dọa do tích hợp AI vào các hoạt động quân sự. Lời kêu gọi của người đứng đầu Liên Hợp Quốc về một cam kết đổi mới về kiểm soát vũ khí nhấn mạnh sự cần thiết phải có một cách tiếp cận thống nhất để ngăn chặn những kết quả thảm khốc.

Cộng đồng quốc tế phải ưu tiên giữ các quyết định hạt nhân trong tay con người để tránh những hậu quả không lường trước được từ các hệ thống do AI điều khiển. Giảm vũ khí hạt nhân kể từ Chiến tranh Lạnh là một bước đi tích cực, nhưng tiềm năng AI thay đổi cục diện chiến lược đòi hỏi phải thường xuyên cảnh giác và có các biện pháp chủ động. Cảnh báo của Guterres nêu bật sự cân bằng mong manh giữa tiến bộ công nghệ và an ninh toàn cầu, kêu gọi các quốc gia hành động có trách nhiệm khi đối mặt với các mối đe dọa mới nổi.

Bài viết Tổng thư ký LHQ cảnh báo AI có thể làm tăng khả năng xảy ra chiến tranh hạt nhân lần đầu tiên xuất hiện trên Coinfea.