Прокуратура та групи безпеки попереджають, що величезна кількість відверто сексуальних дипфейків штучного інтелекту щодо дітей ускладнює правоохоронним органам у США відокремити реальних дітей у біді від фальшивих. Вони кажуть, що зображення настільки схожі на життя, що стало важко зрозуміти, чи зазнали насильства справжні діти, повідомляє Guardian.

Читайте також: Плюшевий ведмедик По на основі ChatGPT читає дітям казки на ніч

Крістіна Коробов, старший юрист некомерційної організації з безпеки дітей Zero Abuse Project у Міннесоті, каже, що група почала помічати повідомлення про зображення реальних дітей, зроблених за допомогою ШІ, які не зазнали сексуального насильства. «Але тепер вони дивляться на дитину, яка зазнала насильства», — каже вона.

Прокурор Міністерства юстиції каже, що «ми тонемо» через ШІ

«Іноді ми впізнаємо постільну білизну або фон у відео чи зображенні, злочинця чи серіал, з якого воно походить, але тепер на ньому зображено обличчя іншої дитини», — сказав Коробов, пише Guardian.

Моделі штучного інтелекту здатні створювати тисячі зображень і відео, схожих на реальні фотографії на день. Згідно зі звітом, це полегшило хижакам використання технології для передачі неприємного контенту в темній мережі та звичайному Інтернеті.

Для влади це стало кошмаром. «З точки зору правоохоронних органів, злочини проти дітей є однією з найбільш обмежених сфер, і відбудеться вибуховий розповсюдження контенту від штучного інтелекту», — сказав прокурор Міністерства юстиції США (DoJ), додавши:

 

«Ми вже просто потонули в цьому».

 

Національний центр США з питань зниклих і експлуатованих дітей (NCMEC) повідомляє, що у 2023 році кількість повідомлень про жорстоке поводження з дітьми в Інтернеті зросла на 12% до 36,2 мільйона. Незважаючи на те, що більшість повідомлень стосувалося розповсюдження реальних фотографій і відео дітей, які зазнали сексуального насильства, центр також отримав 4700 повідомлень про підробку зображень або відео ШІ, які стосуються сексуальної експлуатації дітей.

NCMEC сказав, що деякі з найпоширеніших способів використання штучного інтелекту хижаками включають редагування існуючих онлайн-зображень, щоб зробити їх відвертими. Злочинці також використовують чат-боти з генеративним штучним інтелектом, які дають графічні інструкції, як вербувати дітей для жорстокого поводження.

Чинні закони недостатньо стосуються глибоких фейків ШІ

Здається, є прогалина в тому, що можна вважати злочином. У багатьох юрисдикціях володіння зображеннями, які сексуально об’єктивують дітей, є злочином, але закони ще не розвинулися для включення зображень, створених ШІ.

«Коли висуваються звинувачення у справах у федеральній системі, — сказав прокурор Міністерства юстиції, — штучний інтелект не змінює те, що ми можемо переслідувати, але є багато штатів, де ви повинні бути в змозі довести, що це справжня дитина». Прокурор додав:

 

«Сварки щодо легітимності зображень спричинять проблеми на судах. Якби я був адвокатом, я б стверджував саме так».

 

Навіть якщо закони будуть прийняті, відповідна технологія все одно буде потрібна для злому злочинців, і зараз існує велика прогалина. Групи з безпеки дітей попередили, що поліцейські відділи, ймовірно, будуть завалені запитами.

Читайте також: Глава ООН попереджає, що штучний інтелект підвищує ймовірність ядерної війни

Відверто сексуальні зображення дітей, створені за допомогою штучного інтелекту, почали збільшувати свою присутність в Інтернеті приблизно у 2022 році, що збіглося з випуском ChatGPT від OpenAI, згідно зі звітом Guardian.

NCMEC звинувачує компанії штучного інтелекту в недостатніх зусиллях для запобігання створенню та поширенню експлуатаційного контенту. Минулого року лише п’ять компаній зі штучного інтелекту добровільно подали звіти до Центру. Для порівняння, 70% платформ соціальних мереж поділилися своїми звітами.