El gran volumen de falsificaciones de niños con IA sexualmente explícitas está dificultando que las fuerzas del orden en los EE. UU. separen a los niños en peligro de la vida real de los falsos, advirtieron fiscales y grupos de seguridad. Dicen que las imágenes son tan realistas que se ha vuelto difícil saber si se ha abusado de niños reales, informa The Guardian.

Lea también: Poe, el osito de peluche con tecnología ChatGPT, lee cuentos a los niños antes de dormir

Kristina Korobov, abogada principal de Zero Abuse Project, una organización sin fines de lucro de seguridad infantil con sede en Minnesota, dice que el grupo ha comenzado a notar informes de imágenes de niños reales creadas con inteligencia artificial, que no sufrieron abusos sexuales. "Pero ahora su rostro está en un niño que sufrió abusos", dice.

El fiscal del Departamento de Justicia dice que "nos estamos ahogando" debido a la IA

"A veces, reconocemos la ropa de cama o el fondo de un vídeo o imagen, el perpetrador o la serie de la que proviene, pero ahora hay otra cara de niño", dijo Korobov, según The Guardian.

Los modelos de IA son capaces de producir miles de imágenes y vídeos similares a fotografías de la vida real cada día. Según el informe, esto ha facilitado que los depredadores utilicen la tecnología para comunicar contenido desagradable en la web oscura y en la Internet convencional.

Para las autoridades, se ha convertido en una pesadilla. "Desde la perspectiva de las fuerzas del orden, los delitos contra niños son una de las áreas con mayor escasez de recursos, y habrá una explosión de contenido de IA", dijo un fiscal del Departamento de Justicia de Estados Unidos (DoJ), y agregó:

 

"Ya nos estamos ahogando en estas cosas".

 

El Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC) dice que, en 2023, las denuncias de abuso infantil en línea aumentaron un 12%, hasta 36,2 millones. Si bien la mayoría de los informes estaban relacionados con la circulación de fotografías y vídeos de la vida real de niños abusados ​​sexualmente, el centro también recibió 4.700 informes de imágenes o vídeos falsificados por IA que implicaban la explotación sexual de niños.

El NCMEC dijo que algunas de las formas más comunes en que los depredadores han estado usando la IA incluyen la edición de imágenes existentes en línea para hacerlas explícitas. Los delincuentes también aprovechan los chatbots de inteligencia artificial generativa que dan instrucciones gráficas sobre cómo reclutar niños para abusar de ellos.

Las leyes actuales no van lo suficientemente lejos en materia de deepfakes de IA

Parece haber una brecha en lo que se puede considerar un delito. En muchas jurisdicciones, poseer imágenes que objetivan sexualmente a los niños es un delito, pero las leyes aún no han avanzado para incorporar imágenes generadas por IA.

"Cuando se presentan casos en el sistema federal", dijo el fiscal del Departamento de Justicia, "la IA no cambia lo que podemos procesar, pero hay muchos estados en los que hay que poder demostrar que se trata de un niño real". El fiscal añadió:

 

“Las objeciones sobre la legitimidad de las imágenes causarán problemas en los juicios. Si fuera abogado defensor, eso es exactamente lo que argumentaría”.

 

Incluso si se promulgan las leyes, seguirá siendo necesaria la tecnología habilitante para atrapar a los delincuentes y, actualmente, existe una gran brecha. Los grupos de seguridad infantil advirtieron que es probable que los departamentos de policía se vean inundados de solicitudes.

Lea también: El jefe de la ONU advierte que la IA hace más probable una guerra nuclear

Las imágenes sexualmente explícitas de niños generadas con IA comenzaron a aumentar su huella en línea alrededor de 2022, coincidiendo con el lanzamiento de ChatGPT por parte de OpenAI, según el informe de The Guardian.

El NCMEC acusa a las empresas de inteligencia artificial de no hacer lo suficiente para prevenir la generación y difusión de contenido explotador. El año pasado, sólo cinco empresas de IA presentaron voluntariamente informes al Centro. En comparación, el 70% de las plataformas de redes sociales compartieron sus informes, afirmó.