Microsoft hợp tác với StopNCII để chống lại hình ảnh deepfake
AI sáng tạo đã trở thành một công cụ dễ dàng sử dụng và hình ảnh khiêu dâm deepfake ngày càng phổ biến, đe dọa nghiêm trọng đến quyền riêng tư và an ninh cá nhân. Ngay cả các nhóm nhạc nữ Hàn Quốc cũng trở thành nạn nhân.
Để chống lại những hình ảnh khiêu dâm không có sự đồng thuận, gã khổng lồ công nghệ Microsoft (Microsoft) tuyên bố sẽ hợp tác với nền tảng bảo vệ quyền riêng tư StopNCII để xóa những hình ảnh khiêu dâm này khỏi công cụ tìm kiếm Bing. Làn sóng hoạt động thử nghiệm đầu tiên đã xử lý hơn 260.000 hình ảnh. .
Nạn nhân có thể sử dụng các công cụ của StopNCII trên điện thoại, máy tính hoặc các thiết bị khác của họ để tạo dấu vân tay kỹ thuật số cho các hình ảnh khiêu dâm, dù là thật hay giả sâu. Nó hoạt động giống như một thẻ kỹ thuật số duy nhất mà các đối tác (chẳng hạn như Bing) có thể sử dụng để so sánh hình ảnh trên nền tảng và nếu tìm thấy tài liệu phù hợp, nó có thể bị xóa hoặc ngăn chặn lan truyền theo chính sách tương ứng của họ.
Theo phương tiện truyền thông nước ngoài “Engadget”, nhiều công ty công nghệ đã hợp tác với StopNCII, ngoài Microsoft, còn có Facebook, Instagram và Threads thuộc sở hữu của Meta. Cũng như TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub và các nền tảng khác.
Google không có trong danh sách đối tác?
Là công cụ tìm kiếm phổ biến nhất, Google cũng đã tung ra các công cụ riêng để báo cáo và xóa hình ảnh khiêu dâm. Tuy nhiên, theo điều tra của hãng truyền thông nước ngoài “Wired”, Google vẫn bị các nhân viên cũ và nạn nhân chỉ trích vì không hợp tác với StopNCII.
Rốt cuộc, kể từ năm 2020, người dùng Google ở Hàn Quốc đã báo cáo tổng cộng 170.000 lượt tìm kiếm và liên kết YouTube về nội dung không đứng đắn.
Việc Google không tích hợp với công cụ StopNCII cũng có thể gây thêm gánh nặng cho nạn nhân, buộc họ phải giải quyết các vấn đề về quyền riêng tư theo cách phức tạp và rời rạc hơn.
Chính phủ theo đuổi hình ảnh khiêu dâm deepfake
"TechCrunch" cho biết công cụ của StopNCII chỉ phù hợp với người lớn trên 18 tuổi. Tuy nhiên, vấn đề hình ảnh khiêu dâm deepfake AI rất phổ biến và các nền tảng như "trang web cởi quần áo" đã bắt đầu gây rắc rối cho học sinh trung học.
Thật không may, Hoa Kỳ hiện không có luật nào nhắm mục tiêu cụ thể đến trách nhiệm giải trình đối với nội dung khiêu dâm deepfake bằng AI, khiến nước này phải dựa vào các quy định chắp vá của tiểu bang và địa phương để giải quyết những vấn đề này.
Mặc dù vậy, chính phủ Mỹ đã bắt đầu thực hiện một số biện pháp trong năm nay. Ví dụ, Văn phòng Bản quyền Hoa Kỳ đã kêu gọi ban hành luật mới liên quan và một nhóm thượng nghị sĩ cũng đề xuất dự luật "KHÔNG GIẢ MẠO" vào tháng 7 để bảo vệ nạn nhân của những hình ảnh giả mạo sâu sắc. Vào tháng 8, chính quyền San Francisco đã đệ đơn kiện 18 trang web và ứng dụng vì tạo ra ảnh khỏa thân trái phép mà không có sự đồng thuận.
Ngoài Hoa Kỳ, Hàn Quốc, nơi vấn đề hình ảnh khiêu dâm deepfake nghiêm trọng, cũng đã ra lệnh trấn áp các tội phạm liên quan, theo hãng thông tấn Yonhap, cảnh sát sẽ triển khai chiến dịch kéo dài 7 tháng để tích cực truy tìm những kẻ phạm tội. sản xuất và phân phối những hình ảnh này, đặc biệt là những người sản xuất và phân phối những hình ảnh này. Nó nhắm vào những kẻ bóc lột trẻ em và thanh thiếu niên.
Nguồn: TechCrunch, Engadget, Blog Microsoft
Bảo hiểm nhiều hơn
“Nội dung khiêu dâm bất hợp pháp” do AI tạo ra thu hút 200 triệu lượt xem, chính phủ San Francisco đệ đơn kiện
Đừng nghiện AI! Tài liệu rủi ro GPT-4o cảnh báo: Người dùng có thể phát triển “sự gắn bó cảm xúc” với các chức năng giọng nói