Israel chịu trách nhiệm xác định mục tiêu cho các cuộc không kích ở Gaza bằng cách sử dụng hệ thống trí tuệ nhân tạo, từ đó tạo điều kiện cho vụ thảm sát một số thường dân. Theo một cuộc điều tra gần đây của Tạp chí +972 và Local Call có trụ sở tại Israel, quân đội Israel bị cáo buộc đã sử dụng cơ sở dữ liệu được hỗ trợ bởi AI có tên là Lavender để tạo ra danh sách 37.000 mục tiêu có thể có mối quan hệ rõ ràng với Hamas.

Hơn 33.000 người Palestine đã thiệt mạng ở Gaza kể từ ngày 7 tháng 10 và sáu nguồn tin tình báo Israel giấu tên nói chuyện với +972 tuyên bố rằng các chỉ huy quân sự Israel đã sử dụng danh sách các mục tiêu để phê duyệt các cuộc không kích dẫn đến thương vong dân sự đặc biệt cao.

Sự tàn phá của chiến tranh và hệ thống quân sự AI

Các hệ thống quân sự được điều khiển bằng trí tuệ nhân tạo (AI), chẳng hạn như phần mềm Lavender của Israel, đã dẫn đến sự tàn phá nhiều hơn ở những nơi xung đột như Gaza. Nổi tiếng với khả năng kỳ lạ trong việc phát hiện cá nhân của Hamas, hoa oải hương đã trở thành vũ khí hai lưỡi chém xuyên qua các cộng đồng dân sự và hủy hoại cuộc sống trên đường đi của nó. Tỷ lệ chính xác được tuyên bố là 90% đã che giấu thực tế khủng khiếp về việc công nghệ này, khi được sử dụng bất cẩn, có thể giết chết những người ngoài cuộc vô tội bị mắc kẹt trong làn đạn.

Một nguồn tin nói với 972mag rằng,

“Chúng tôi được yêu cầu tìm kiếm những tòa nhà cao tầng có nửa tầng có thể là của Hamas,”

Nguồn: +972mag

Như đã biết, trí tuệ nhân tạo hoạt động dựa trên nhiều yếu tố khác nhau và độ chính xác của các tham số này phụ thuộc vào sự tinh chỉnh của chúng. Một nguồn tin khác cho biết, thay đổi các thông số dữ liệu và máy tính bắt đầu hiển thị cho chúng ta nhiều loại quan chức cảnh sát và dân phòng, những người mà việc sử dụng bom sẽ không phù hợp.

Một tiêu chí đáng ngờ khác là liệu điện thoại di động có được thay đổi thường xuyên hay không; hầu hết người dân Gaza phải đối mặt với sự hỗn loạn xã hội của chiến tranh hàng ngày. Bất kỳ cá nhân nào hỗ trợ Hamas mà không nhận được tiền hoặc là thành viên trước đây cũng bị thuật toán đánh dấu là đáng ngờ.

Như nguồn 971mag đã nói,

“Mỗi tính năng này đều không chính xác”

Nguồn: +972mag

Câu đố đạo đức về tự động hóa trên chiến trường

Những vấn đề đạo đức sâu sắc về chiến tranh do AI điều khiển ngày càng trở nên cấp bách khi khói bụi từ các vùng chiến sự tan biến. Từng được ca ngợi là biện pháp ngăn chặn quá trình tự động hóa không kiểm soát, ý tưởng về “con người trong vòng lặp” ngày nay được coi là một ranh giới mỏng ngăn cách các phán đoán thuật toán với ý nghĩa thực tế của chúng. Một cái nhìn sâu sắc về suy nghĩ của những người được giao nhiệm vụ giám sát sự phức tạp của chiến tranh hiện đại được đưa ra qua lời chứng của các chỉ huy Israel, những người đang tranh luận về hậu quả đạo đức của bạo lực do trí tuệ nhân tạo gây ra.

Kể từ khi xung đột do AI điều khiển có thể thảm khốc đến mức nào, mọi người đã lo lắng: liệu con người có thực sự đủ khả năng để cho máy móc chiếm thế thượng phong trong các vấn đề sinh tử không? Trách nhiệm đạo đức và quản lý có trách nhiệm trở nên quan trọng hơn bao giờ hết khi các quốc gia đang vật lộn với những hậu quả đạo đức của tự động hóa và mối nguy hiểm thực sự của bạo lực do AI kích hoạt. Sự nguy hiểm của sự tăng trưởng công nghệ không kiểm soát được minh họa rõ ràng bằng những bài học lịch sử trong một thế giới đang bên bờ vực của một thời kỳ chiến tranh mới khủng khiếp.