Новый законопроект, внесенный группой двухпартийных сенаторов, направлен на борьбу со злоупотреблением глубокими фейками искусственного интеллекта (ИИ) путем обязательного нанесения водяных знаков на такой контент.

Законопроект, представленный сенатором Марией Кантвелл (демократ от штата Вашингтон), сенатором Маршей Блэкберн (республиканец от штата Теннесси) и сенатором Мартином Генрихом (демократ от штата Нью-Мексико), предлагает стандартизированный метод нанесения водяных знаков на контент, генерируемый искусственным интеллектом.

Закон, получивший название «Закон о защите происхождения контента и целостности от отредактированных и глубоко поддельных медиа» (COPIED), укрепит защиту создателей и установит контроль над типами контента, на котором может обучаться ИИ.

По словам Кантвелла, законопроект обеспечит «столь необходимую прозрачность» контента, создаваемого ИИ, и в то же время вернет «создателям, включая местных журналистов, художников и музыкантов, контроль над своим контентом».

В случае принятия законопроект также потребует от поставщиков услуг искусственного интеллекта, таких как OpenAI, обязать пользователей вставлять информацию о происхождении генерируемого ими контента. Кроме того, это должно быть реализовано таким образом, чтобы оно было «машиночитаемым», и его нельзя было обойти или удалить с помощью инструментов на основе ИИ.

Федеральная торговая комиссия (FTC) будет следить за соблюдением закона COPIED. Регулятор будет рассматривать нарушения как несправедливые или вводящие в заблуждение действия, аналогично другим нарушениям Закона о Федеральной торговой комиссии.

С появлением искусственного интеллекта возникло много споров по поводу его этических последствий, учитывая способность технологии собирать огромные объемы данных из Интернета.

Вам также может быть интересно: Искусственный интеллект может добавить новое измерение криптопреступлениям, говорит Elliptic

Эти опасения стали очевидны, когда технологический гигант Microsoft отказался от участия в совете директоров OpenAI.

«Искусственный интеллект дал злоумышленникам возможность создавать дипфейки каждого человека, в том числе представителей творческого сообщества, чтобы имитировать их подобие без их согласия и получать прибыль от контрафактного контента», — сказал сенатор Блэкберн. 

Предлагаемый законопроект совпадает с ростом на 245% случаев мошенничества и мошенничества с использованием контента Deepfake. Согласно отчету Bitget, к 2025 году убытки от этих схем будут оценены в 10 миллиардов долларов.

В криптопространстве мошенники используют ИИ, чтобы выдавать себя за таких выдающихся личностей, как Илон Маск и Виталик Бутерин, чтобы обмануть пользователей.

В июне 2024 года клиент криптобиржи OKX потерял более $2 млн после того, как злоумышленникам удалось обойти безопасность платформы с помощью дипфейковых видео жертвы. За месяц до этого власти Гонконга расправились с мошеннической платформой, использовавшей изображение Илона Маска, чтобы ввести инвесторов в заблуждение.

Между тем, основатель Национального центра кибербезопасности (NCC) Майкл Маркотт недавно раскритиковал технологического гиганта Google за неадекватные профилактические меры против дипфейков, нацеленных на криптовалюту.

Читать далее: Binance использует искусственный интеллект (ИИ) для улучшения образования в области Web3