Con el Congreso a días de cerrar su sesión, el senador de Texas Ted Cruz está haciendo un último esfuerzo para aprobar un proyecto de ley que criminaliza la pornografía de venganza generada por IA.

La propuesta, S.4569, tiene como objetivo a los deepfakes —la tecnología cada vez más popular que superpone el rostro de alguien en imágenes o videos pornográficos sin su consentimiento. Si se aprueba, el proyecto de ley requeriría que los sitios web y las plataformas de redes sociales eliminen el contenido dentro de las 48 horas siguientes a ser notificados por una víctima.

El proyecto de ley también es bipartidista, co-patrocinado por la senadora demócrata Amy Klobuchar, y pasó por el Senado de manera unánime el 3 de diciembre. Ahora, todas las miradas están puestas en la Cámara, donde los legisladores solo tienen unos pocos días para aprobar el proyecto de ley complementario, H.R. 8989.

En una conferencia de prensa el 11 de diciembre, Cruz dijo: “Cada víctima debería tener el derecho de decir: ‘Esa soy yo. Esa es mi imagen, y no tienes mi permiso para publicar esta basura.”

Las víctimas hablan mientras las empresas tecnológicas apoyan el proyecto de ley

Elliston Berry, una niña de 15 años cuya imagen alterada por IA se propagó como un incendio forestal en Snapchat, compartió su pesadilla en el evento de prensa.

“Esa mañana me desperté, fue uno de los peores sentimientos que he sentido en mi vida”, dijo, describiendo cómo la imagen falsa circuló durante nueve meses antes de que la oficina de Cruz interviniera para que se eliminara. Los innumerables esfuerzos de su familia para que las plataformas actuaran habían fallado.

La historia de Berry no es única, y ese es el problema. La pornografía deepfake ha explotado, dejando a las víctimas luchando por recuperar su privacidad mientras las empresas tecnológicas intentan ponerse al día.

Para la madre de Berry, llegar a la oficina de Cruz fue un punto de inflexión. Se necesitó la intervención directa de un senador de EE. UU. para que una importante plataforma social retirara el contenido. Para la mayoría de las víctimas, ese tipo de acceso no es una opción.

Las grandes empresas tecnológicas Google, Meta, Microsoft y TikTok están apoyando la legislación de Cruz. Esto puede parecer sorprendente, pero la realidad es que están bajo una creciente presión para actuar. Los críticos han señalado durante mucho tiempo a las plataformas por su lentitud en eliminar contenido de deepfake. El proyecto de ley de Cruz les obliga a actuar: 48 horas, sin excusas.

La senadora Klobuchar enfatizó la necesidad de actuar ahora. “Este trabajo se trata de construir un futuro, de enfrentar los desafíos del nuevo entorno en el que vivimos y no solo pretender que ya no está sucediendo.”

Un problema que nadie puede ignorar

La IA ha hecho que la creación de deepfakes sea inquietantemente simple. Herramientas que antes requerían habilidades y recursos avanzados ahora están disponibles para cualquiera con una computadora portátil y acceso a internet. No es una coincidencia que el 98% de todo el contenido deepfake en línea sea pornográfico.

Las cifras son impactantes. Este año, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) señaló 4,700 casos de material de abuso sexual infantil generado por IA (CSAM).

La tecnología también alimenta los rincones más oscuros de internet. Un caso reciente en Wisconsin vio a un hombre de 42 años arrestado por crear y distribuir miles de imágenes explícitas generadas por IA de menores. Otro caso involucró a un psiquiatra infantil condenado a 40 años por usar IA para generar imágenes alteradas de niños reales.

La pornografía deepfake no se detiene con los menores. Celebridades, influencers y personas comunes están siendo blanco de tasas alarmantes. Cualquiera con una imagen pública —o incluso una cuenta de redes sociales— puede convertirse en una víctima. Sin leyes federales en vigor, las víctimas tienen poco recurso.

La IA solo se está volviendo más inteligente. Si los legisladores no actúan ahora, el daño solo se profundizará. Los legisladores claramente saben esto. Y también las víctimas. Ahora depende del Congreso decidir si luchar o permitir que la crisis del deepfake continúe sin control.

Un sistema paso a paso para lanzar tu carrera Web3 y conseguir trabajos bien remunerados en cripto en 90 días.