Các công tố viên và nhóm an toàn cảnh báo rằng số lượng lớn các video giả mạo AI rõ ràng về tình dục đối với trẻ em đang khiến cơ quan thực thi pháp luật ở Hoa Kỳ gặp khó khăn trong việc phân biệt những đứa trẻ gặp nạn ngoài đời thực với những đứa trẻ giả. Họ nói rằng những hình ảnh này sống động đến mức khó có thể biết được liệu trẻ em thật có bị lạm dụng hay không, tờ Guardian đưa tin.

Cũng đọc: Chú gấu bông hỗ trợ ChatGPT Poe đọc truyện trước khi đi ngủ cho trẻ em

Kristina Korobov, luật sư cấp cao của Dự án phi lợi nhuận về an toàn trẻ em có trụ sở tại Minnesota, cho biết nhóm đã bắt đầu nhận thấy các báo cáo về hình ảnh của những đứa trẻ thật được tạo ra bằng AI, những người không bị lạm dụng tình dục. “Nhưng bây giờ khuôn mặt của họ hướng về một đứa trẻ bị lạm dụng,” cô nói.

Công tố viên DoJ nói ‘chúng ta đang chết đuối’ vì AI

Korobov cho biết: “Đôi khi, chúng tôi nhận ra bối cảnh hoặc bối cảnh trong một video hoặc hình ảnh, thủ phạm hoặc bộ phim xuất phát từ đó, nhưng giờ đây, khuôn mặt của một đứa trẻ khác được đặt trên đó”.

Các mô hình AI có khả năng tạo ra hàng nghìn bức ảnh và video giống với ảnh đời thực mỗi ngày. Theo báo cáo, điều này đã giúp những kẻ săn mồi sử dụng công nghệ này dễ dàng hơn để truyền đạt nội dung không lành mạnh trên web đen và internet chính thống.

Đối với chính quyền, nó đã trở thành một cơn ác mộng. Một công tố viên của Bộ Tư pháp Hoa Kỳ (DoJ) cho biết: “Từ góc độ thực thi pháp luật, tội phạm chống lại trẻ em là một trong những lĩnh vực thiếu nguồn lực hơn và sẽ có sự bùng nổ về nội dung từ AI”.

 

“Chúng ta sắp chìm đắm trong thứ này rồi.”

 

Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) cho biết, vào năm 2023, các báo cáo về lạm dụng trẻ em trực tuyến đã tăng 12% lên 36,2 triệu. Trong khi hầu hết các báo cáo đều liên quan đến việc lan truyền các bức ảnh và video đời thực về trẻ em bị lạm dụng tình dục, trung tâm cũng nhận được 4.700 báo cáo về các hình ảnh hoặc video deepfake AI liên quan đến việc bóc lột tình dục trẻ em.

NCMEC cho biết một số cách phổ biến nhất mà những kẻ săn mồi đang sử dụng AI bao gồm chỉnh sửa các hình ảnh trực tuyến hiện có để làm cho chúng trở nên rõ ràng. Tội phạm cũng tận dụng các chatbot trí tuệ nhân tạo tổng hợp để đưa ra hướng dẫn bằng hình ảnh về cách chiêu mộ trẻ em để lạm dụng.

Luật pháp hiện hành chưa đi đủ xa về AI deepfake

Dường như có một khoảng trống trong những gì có thể được coi là tội phạm. Ở nhiều khu vực pháp lý, việc sở hữu những hình ảnh khiêu dâm trẻ em là một tội ác, nhưng luật pháp vẫn chưa tiến bộ để kết hợp các hình ảnh do AI tạo ra.

“Khi buộc tội các vụ án trong hệ thống liên bang,” công tố viên DoJ cho biết, “AI không thay đổi những gì chúng tôi có thể truy tố, nhưng có nhiều tiểu bang mà bạn phải chứng minh được đó là một đứa trẻ thật.” Công tố viên nói thêm:

 

“Việc tranh cãi về tính hợp pháp của hình ảnh sẽ gây ra vấn đề tại các phiên tòa. Nếu tôi là luật sư bào chữa, đó chính xác là điều tôi sẽ tranh luận.”

 

Ngay cả khi luật được ban hành, công nghệ hỗ trợ vẫn cần thiết để truy bắt tội phạm và hiện tại, vẫn còn một khoảng cách lớn. Các nhóm an toàn trẻ em cảnh báo rằng các sở cảnh sát có thể sẽ nhận được rất nhiều yêu cầu.

Cũng đọc: Người đứng đầu Liên hợp quốc cảnh báo AI khiến chiến tranh hạt nhân dễ xảy ra hơn

Theo báo cáo của Guardian, những hình ảnh khiêu dâm về trẻ em được tạo ra bằng AI bắt đầu gia tăng dấu ấn trực tuyến vào khoảng năm 2022, trùng với thời điểm OpenAI phát hành ChatGPT.

NCMEC cáo buộc các công ty AI đã không làm đủ để ngăn chặn việc tạo ra và lan truyền nội dung bóc lột. Năm ngoái, chỉ có 5 công ty AI tự nguyện nộp báo cáo cho Trung tâm. Để so sánh, 70% nền tảng truyền thông xã hội đã chia sẻ báo cáo của họ.