Microsoft se asocia con StopNCII para combatir las imágenes deepfake

La IA generativa se ha convertido en una herramienta de fácil acceso y las imágenes pornográficas ultrafalsas se han generalizado, amenazando gravemente la privacidad y la seguridad personal. Incluso los grupos de chicas coreanas se han convertido en víctimas.

Para combatir las imágenes pornográficas no consentidas, el gigante tecnológico Microsoft (Microsoft) anunció que cooperará con la plataforma de protección de la privacidad StopNCII para eliminar estas imágenes pornográficas del motor de búsqueda Bing. La primera ola de operaciones de prueba ha procesado más de 260.000 imágenes. .

Las víctimas pueden utilizar las herramientas de StopNCII en sus teléfonos, computadoras u otros dispositivos para generar una huella digital para imágenes pornográficas, ya sean reales o falsas. Actúa como una etiqueta digital única que los socios (como Bing) pueden usar para comparar imágenes en la plataforma y, si se encuentra material coincidente, se puede eliminar o impedir su difusión de acuerdo con sus respectivas políticas.

Según el medio extranjero Engadget, muchas empresas tecnológicas ya han cooperado con StopNCII. Además de Microsoft, también están Facebook, Instagram y Threads, propiedad de Meta. Así como TikTok, Bumble, Reddit, Snap, Niantic, Onlyfans, PornHub y otras plataformas.

¿Google no está en la lista de socios?

Google, como motor de búsqueda más popular, también ha lanzado sus propias herramientas para denunciar y eliminar imágenes pornográficas. Sin embargo, según una investigación del medio extranjero "Wired", Google sigue siendo criticado por antiguos empleados y víctimas por no cooperar con StopNCII.

Después de todo, desde 2020, los usuarios de Google en Corea del Sur han informado de un total de 170.000 búsquedas y enlaces de YouTube de contenido indecente.

El hecho de que Google no se integre con la herramienta StopNCII también puede imponer cargas adicionales a las víctimas, obligándolas a lidiar con cuestiones de privacidad de una manera más compleja y fragmentada.

El gobierno persigue imágenes pornográficas deepfake

"TechCrunch" afirmó que la herramienta de StopNCII solo es adecuada para adultos mayores de 18 años. Sin embargo, el problema de las imágenes pornográficas falsificadas por IA es muy común y plataformas como los "sitios de desnudez" han comenzado a causar problemas a los estudiantes de secundaria.

Desafortunadamente, Estados Unidos actualmente no tiene leyes que apunten específicamente a la responsabilidad por la pornografía deepfake de IA, por lo que ahora depende de un mosaico de regulaciones estatales y locales para abordar estos problemas.

Aun así, el gobierno estadounidense ha comenzado a tomar algunas medidas este año. Por ejemplo, la Oficina de Derechos de Autor de EE.UU. ha pedido la promulgación de nuevas leyes pertinentes, y un grupo de senadores también propuso en julio el proyecto de ley "NO FAKES" para proteger a las víctimas de imágenes ultrafalsas. En agosto, el gobierno de San Francisco presentó una demanda contra 18 sitios web y aplicaciones por generar ilegalmente fotografías de desnudos no consentidos.

Además de Estados Unidos, Corea del Sur, donde el problema de las imágenes pornográficas deepfake es grave, también ha ordenado medidas enérgicas contra los delitos relacionados. Según la Agencia de Noticias Yonhap, la policía lanzará una operación de siete meses para localizar activamente a quienes los cometen. producen y distribuyen estas imágenes, especialmente aquellos que producen y distribuyen estas imágenes. Está dirigido a aquellos que explotan a niños y jóvenes.

Fuente: TechCrunch, Engadget, Blog de Microsoft

Más cobertura
El “contenido pornográfico ilegal” generado por IA atrae 200 millones de visitas, el gobierno de San Francisco presenta una demanda
¡No seas adicto a la IA! El documento de riesgo GPT-4o advierte: los usuarios pueden desarrollar un "apego emocional" a las funciones de voz