Огромное количество откровенно сексуальных подделок детей с помощью искусственного интеллекта затрудняет работу правоохранительных органов в США, чтобы отделить реальных детей, попавших в беду, от фальшивых, предупреждают прокуроры и группы безопасности. Они говорят, что изображения настолько реалистичны, что стало трудно понять, подвергались ли настоящие дети насилию, сообщает Guardian.

Читайте также: Плюшевый мишка По на базе ChatGPT читает детям сказки на ночь

Кристина Коробова, старший юрист некоммерческой организации по защите детей Zero Abuse Project, базирующейся в Миннесоте, говорит, что группа начала замечать сообщения об изображениях реальных детей, сделанных с помощью искусственного интеллекта, которые не подвергались сексуальному насилию. «Но теперь их лицо на ребенке, подвергшемся насилию», — говорит она.

Прокурор Министерства юстиции заявил, что «мы тонем» из-за ИИ

«Иногда мы узнаем постельное белье или фон на видео или изображении, преступника или сериал, из которого оно сделано, но теперь на нем изображено лицо другого ребенка», — сказал Коробов, согласно Guardian.

Модели искусственного интеллекта способны ежедневно создавать тысячи изображений и видео, похожих на реальные фотографии. Согласно отчету, это облегчило злоумышленникам использование этой технологии для распространения сомнительного контента в темной сети и обычном Интернете.

Для властей это стало кошмаром. «С точки зрения правоохранительных органов преступления против детей являются одной из наиболее ограниченных в ресурсах областей, и ожидается взрывной рост контента от ИИ», — заявил прокурор Министерства юстиции США (DoJ), добавив:

 

«Мы уже просто тонем в этой ерунде».

 

Национальный центр США по пропавшим и эксплуатируемым детям (NCMEC) сообщает, что в 2023 году количество сообщений о жестоком обращении с детьми в Интернете выросло на 12% до 36,2 миллиона. Хотя большинство сообщений было связано с распространением реальных фотографий и видео детей, подвергшихся сексуальному насилию, центр также получил 4700 сообщений о фейковых изображениях или видео с использованием искусственного интеллекта, в которых фигурирует сексуальная эксплуатация детей.

В NCMEC заявили, что некоторые из наиболее распространенных способов использования ИИ хищниками включают редактирование существующих онлайн-изображений, чтобы сделать их явными. Преступники также используют генеративные чат-боты с искусственным интеллектом, которые дают графические инструкции о том, как вербовать детей для злоупотреблений.

Действующие законы не заходят достаточно далеко в отношении дипфейков с использованием искусственного интеллекта.

Кажется, существует пробел в том, что можно считать преступлением. Во многих юрисдикциях хранение изображений, которые сексуально объективизируют детей, является преступлением, но законы, позволяющие включать изображения, созданные ИИ, еще не разработаны.

«При предъявлении обвинений в федеральной системе, — сказал прокурор Министерства юстиции, — ИИ не меняет того, что мы можем преследовать по суду, но есть много штатов, где вы должны быть в состоянии доказать, что это настоящий ребенок». Прокурор добавил:

 

«Споры по поводу легитимности изображений вызовут проблемы на судебных процессах. Если бы я был адвокатом, я бы именно это и утверждал».

 

Даже если законы будут приняты, для поимки преступников все равно потребуются соответствующие технологии, и в настоящее время существует большой разрыв. Группы по безопасности детей предупредили, что полицейские управления, скорее всего, будут завалены запросами.

Читайте также: Генсек ООН предупреждает, что ИИ повышает вероятность ядерной войны

Согласно отчету Guardian, изображения детей сексуального характера, созданные с помощью ИИ, начали увеличивать свое присутствие в Интернете примерно в 2022 году, что совпало с выпуском ChatGPT от OpenAI.

NCMEC обвиняет компании, занимающиеся искусственным интеллектом, в том, что они не делают достаточно для предотвращения создания и распространения эксплуататорского контента. В прошлом году только пять компаний, занимающихся искусственным интеллектом, добровольно представили отчеты в Центр. Для сравнения, 70% социальных сетей поделились своими отчетами, говорится в сообщении.