O grande volume de deepfakes de IA sexualmente explícitos de crianças está tornando difícil para as autoridades nos EUA separar as crianças em perigo da vida real das falsas, alertaram promotores e grupos de segurança. Dizem que as imagens são tão reais que se tornou difícil saber se crianças reais foram vítimas de abuso, relata o Guardian.

Leia também: Poe, ursinho de pelúcia movido a ChatGPT, lê histórias de ninar para crianças

Kristina Korobov, advogada sênior de uma organização sem fins lucrativos de segurança infantil com sede em Minnesota, Zero Abuse Project, diz que o grupo começou a notar relatos de imagens de crianças reais feitas com IA, que não foram abusadas sexualmente. “Mas agora o rosto deles está em uma criança que foi abusada”, diz ela.

O promotor do DoJ diz que ‘estamos nos afogando’ devido à IA

“Às vezes, reconhecemos a roupa de cama ou o fundo de um vídeo ou imagem, o autor ou a série de onde vem, mas agora há o rosto de outra criança nele”, disse Korobov, de acordo com o Guardian.

Os modelos de IA são capazes de produzir milhares de fotos e vídeos semelhantes a fotografias da vida real por dia. De acordo com o relatório, isso tornou mais fácil para os predadores usarem a tecnologia para comunicar conteúdo desagradável na dark web e na internet convencional.

Para as autoridades, tornou-se um pesadelo. “Do ponto de vista da aplicação da lei, os crimes contra crianças são uma das áreas com maior escassez de recursos e haverá uma explosão de conteúdo de IA”, disse um promotor do Departamento de Justiça dos EUA (DoJ), acrescentando:

 

“Já estamos nos afogando nessas coisas.”

 

O Centro Nacional dos EUA para Crianças Desaparecidas e Exploradas (NCMEC) afirma que, em 2023, os relatos de abuso infantil online aumentaram 12%, para 36,2 milhões. Embora a maioria dos relatos estivesse relacionada com a circulação de fotos e vídeos da vida real de crianças abusadas sexualmente, o centro também recebeu 4.700 relatos de imagens ou vídeos falsos de IA envolvendo a exploração sexual de crianças.

O NCMEC disse que algumas das formas mais comuns pelas quais os predadores têm usado a IA incluem a edição de imagens online existentes para torná-las explícitas. Os criminosos também utilizam chatbots de inteligência artificial generativos que fornecem instruções gráficas sobre como recrutar crianças para abusos.

As leis atuais não vão longe o suficiente em relação aos deepfakes de IA

Parece haver uma lacuna no que pode ser considerado um crime. Em muitas jurisdições, possuir imagens que objetificam sexualmente crianças é crime, mas as leis ainda não avançaram para incorporar imagens geradas por IA.

“Ao cobrar casos no sistema federal”, disse o promotor do DoJ, “a IA não muda o que podemos processar, mas há muitos estados onde é preciso provar que se trata de uma criança real”. O promotor acrescentou:

 

“Discussões sobre a legitimidade das imagens causarão problemas nos julgamentos. Se eu fosse advogado de defesa, seria exatamente isso que eu argumentaria.”

 

Mesmo que as leis sejam promulgadas, a tecnologia facilitadora ainda será necessária para capturar criminosos e, atualmente, existe uma grande lacuna. Grupos de segurança infantil alertaram que os departamentos de polícia provavelmente serão inundados com solicitações.

Leia também: Chefe da ONU alerta que IA torna a guerra nuclear mais provável

Imagens sexualmente explícitas de crianças geradas com IA começaram a aumentar a sua presença online por volta de 2022, coincidindo com o lançamento do ChatGPT pela OpenAI, de acordo com o relatório do Guardian.

O NCMEC acusa as empresas de IA de não fazerem o suficiente para impedir a geração e propagação de conteúdos exploratórios. No ano passado, apenas cinco empresas de IA apresentaram voluntariamente relatórios ao Centro. Em comparação, 70% das plataformas de redes sociais partilharam os seus relatórios, afirmou.