Microsoft đã kêu gọi Quốc hội thông qua luật mới nhắm vào các tác phẩm sâu do AI tạo ra. Brad Smith, Phó Chủ tịch kiêm Chủ tịch Microsoft đã nhấn mạnh sự cấp bách của các nhà lập pháp trong việc giải quyết mối đe dọa ngày càng tăng của công nghệ deepfake. 

Trong một bài đăng trên blog gần đây, Smith nhấn mạnh tầm quan trọng của việc điều chỉnh luật để giải quyết vấn đề gian lận giả mạo và ngăn chặn việc khai thác. Theo Smith, cần phải có một quy chế mà người ta có thể sử dụng để buộc tội các hành vi lừa đảo và gian lận đối với các hoạt động deepfake. 

Microsoft đề xuất đạo luật liên bang về gian lận deepfake

Theo báo cáo của Microsoft, một số biện pháp can thiệp pháp lý có thể được thực hiện để ngăn chặn việc lạm dụng công nghệ deepfake. Một trong những đề xuất là tạo ra một ‘đạo luật gian lận deepfake’ liên bang. Luật mới này sẽ giải quyết cả khía cạnh dân sự và hình sự của gian lận nội dung tổng hợp và có thể áp dụng các biện pháp sau: buộc tội hình sự, tịch thu dân sự và lệnh cấm. 

Báo cáo cũng hỗ trợ yêu cầu nhận dạng nội dung tổng hợp. Thông qua quy định sử dụng các công cụ truy xuất nguồn gốc tiên tiến, công chúng sẽ đánh giá cao nguồn gốc của nội dung họ nhận được trực tuyến. Điều này rất quan trọng đối với độ tin cậy của thông tin kỹ thuật số và ngăn chặn việc phổ biến tin tức giả mạo. 

“Quốc hội nên yêu cầu các nhà cung cấp hệ thống AI sử dụng công cụ xuất xứ hiện đại để gắn nhãn nội dung tổng hợp. Điều này là cần thiết để xây dựng niềm tin vào hệ sinh thái thông tin và sẽ giúp công chúng hiểu rõ hơn về nội dung do AI tạo ra hay bị thao túng.”

Brad Smith

Ngoài ra, Microsoft đề nghị sửa đổi các luật hiện hành về bóc lột trẻ em và hình ảnh khiêu dâm không có sự đồng thuận để bao gồm các hình ảnh do AI tạo ra. Điều này sẽ đảm bảo rằng các khung pháp lý được đồng bộ với sự phát triển của công nghệ để bảo vệ nhóm người dễ bị tổn thương. 

Thượng viện Hoa Kỳ gần đây đã thực hiện các bước về vấn đề này bằng cách thông qua một dự luật nhằm vào các nội dung giả mạo rõ ràng về tình dục. Luật mới này cho phép nạn nhân của các tác phẩm deepfake AI rõ ràng về tình dục không có sự đồng thuận khởi kiện những người tạo ra nội dung. 

FCC nói “không” với cuộc gọi robot bằng giọng nói AI

Microsoft cũng đã phản ứng với việc lạm dụng AI và tăng cường các biện pháp an toàn trên các sản phẩm của mình. Công ty gần đây đã cải tiến trình tạo hình ảnh Designer AI sau một lỗ hổng đã bị khai thác để tạo ra những bức ảnh khiêu dâm về những người nổi tiếng. Smith cho rằng khu vực tư nhân cần đưa ra các biện pháp để đảm bảo AI không bị lạm dụng và việc đảm bảo rằng người dùng không bị tổn hại là trách nhiệm của các công ty công nghệ. 

FCC đã hành động chống lại việc lạm dụng AI bằng cách cấm sử dụng giọng nói AI trong các cuộc gọi tự động. Tuy nhiên, AI sáng tạo đang ngày càng cải thiện trong việc tạo ra âm thanh, hình ảnh và video giả. Vấn đề này gần đây càng trở nên trầm trọng hơn bởi một video deepfake của Phó Tổng thống Mỹ Kamala Harris được lan truyền trên mạng xã hội và cho thấy mối nguy hiểm ngày càng tăng của công nghệ deepfake.

Các tổ chức phi lợi nhuận khác, chẳng hạn như Trung tâm Dân chủ và Công nghệ (CDT), cũng tham gia vào việc chống lạm dụng deepfake. Theo ghi nhận của Tim Harper, nhà phân tích chính sách cấp cao của CDT, năm 2024 đánh dấu bước ngoặt quan trọng đối với AI trong các cuộc bầu cử và mọi người cần chuẩn bị cho điều đó. Sự phản kháng hiện nay đối với deepfake là hình thức ban đầu của cuộc đấu tranh kéo dài chống lại sự thao túng công nghệ.