Các robot sát thủ đã có mặt trên chiến trường và đang chứng tỏ mình là vũ khí hủy diệt. Chúng ta nên lo lắng - thực tế là rất lo lắng. Vì chúng đã chứng tỏ tiềm năng chết người của mình trong các cuộc chiến ở Gaza và Ukraine, hậu quả có thể rất tàn khốc nếu chúng được xử lý một cách bất cẩn. Vào ngày 3 tháng 4, tạp chí +972, một ấn phẩm của Israel đã công bố một báo cáo về việc Israel sử dụng AI để xác định các mục tiêu ở Gaza.

Hệ thống AI có tên là Lavender và được cho là đã quản lý danh sách tiêu diệt những nhân viên bị nghi ngờ của Hamas, bao gồm cả những người làm việc ở cấp bậc thấp hơn. Chúng tôi không biết danh sách này chính xác đến mức nào, nhưng thực tế đáng lo ngại nhất là nó được sử dụng để nhắm mục tiêu vào các chiến binh ngay cả khi họ đang ở trong nhà cùng gia đình, con cái và nhiều thường dân xung quanh. Biểu đồ dưới đây thể hiện số người thương vong tính đến ngày 15/4.

Nguồn: Statista. Các thuật toán cho biết nên nhắm mục tiêu vào ai

Như được thấy rõ qua số lượng dân thường thiệt mạng cao và cơ sở hạ tầng bị phá hủy trên quy mô lớn sau cuộc xâm lược Gaza của Israel, báo cáo đã gây ra những lo ngại nghiêm trọng đối với các tổ chức nhân đạo, các quan chức chính phủ và mọi cá nhân nhạy cảm trên toàn cầu và Hoa Kỳ. Antonio Guterres, Tổng thư ký Liên Hợp Quốc, nói rằng ông “vô cùng lo lắng” và John Kirby, người phát ngôn của Nhà Trắng nói rằng “Mỹ đang xem xét báo cáo chặt chẽ”.

Guterres tỏ ra lo lắng hơn về số người thương vong và nói,

“Không có phần nào trong các quyết định sinh tử ảnh hưởng đến toàn bộ gia đình nên được giao cho việc tính toán lạnh lùng các thuật toán.”

Nguồn: Worldpoliticsreview.

Báo cáo được công bố sau vụ việc Israel nhắm mục tiêu và sát hại 7 nhân viên cứu trợ phương Tây và một số trong số họ là cựu quân nhân Anh. Tất nhiên, điều này đã khiến các thẩm phán và luật sư khắp nước Anh ngừng bán vũ khí cho Israel do nước này phạm tội ác chiến tranh và vi phạm nghiêm trọng luật pháp quốc tế.

Một khía cạnh khác của suy nghĩ về robot sát thủ

Aljazeera hình dung các cảnh ở Gaza vào tháng 11 dựa trên số liệu thống kê của OCHA. Nguồn: Aljazeera.

Chiến dịch ngăn chặn robot sát thủ bày tỏ mối lo ngại nhưng cho biết đây không phải là điều họ đang vận động chống lại kể từ năm 2012, vì theo họ, đây là một hệ thống xử lý dữ liệu và quyết định cuối cùng về việc nổ súng vẫn nằm trong tay con người, nhưng một trong những tuyên bố của họ cung cấp một khía cạnh khác để suy nghĩ về Tuyên bố được đưa ra sau khi công bố tin tức, nó nói,

“Thiếu sự kiểm soát và tham gia có ý nghĩa của con người liên quan đến các quyết định tấn công các mục tiêu được đề xuất.”

Nguồn: Worldpoliticsreview.

Tuyên bố này sử dụng từ “thiếu sự kiểm soát có ý nghĩa của con người”, điều này làm tăng thêm một lớp phức tạp khác cho trí tuệ nhân tạo và robot giết người vốn đã bị lên án, đồng thời cũng mang đến cho các nhà vận động một mối quan tâm mới để ủng hộ.

Trí tuệ nhân tạo thường được miêu tả là một ngày nào đó nó có thể chiếm lấy hành tinh này và gây ra những tổn hại thảm khốc, thậm chí là khiến loài người tuyệt chủng. Nhưng một thực tế đáng lo ngại hơn là các lực lượng sử dụng chúng sẽ ít thận trọng hơn khi nhắm mục tiêu, điều đó sẽ khiến họ ít chịu trách nhiệm hơn, dẫn đến việc họ đưa ra những quyết định phi đạo đức trong các cuộc chiến như chúng ta đã thấy ở Gaza. Vì vậy, suy cho cùng, vấn đề không phải là robot đưa ra quyết định chống lại con người, mà là con người đưa ra quyết định bằng robot mà không sử dụng tối đa khả năng nhận thức của mình trong những tình huống sinh tử nhạy cảm như vậy. Như báo cáo đề cập đến một nguồn nói,

“Máy làm việc đó một cách lạnh lùng.”

Nguồn: +972mag.

Ngoài ra còn có một góc độ khác, điều này có thể làm hỏng khả năng giao tiếp hiệu quả của các lập trình viên với các hệ thống AI, dẫn đến tội ác chiến tranh.

Câu chuyện tin tức gốc có thể được nhìn thấy ở đây.