Las víctimas luchan mientras Google no actúa con rapidez
Están aumentando los informes sobre imágenes y vídeos íntimos publicados en Internet sin consentimiento, y los deepfakes añaden una nueva dimensión al problema. A principios de 2022, dos miembros del personal de políticas de Google se reunieron con mujeres víctimas de la estafa GirlsDoPorn, en la que circulaban vídeos explícitos de ellas en Internet, incluso a través de los resultados de búsqueda de Google.
Las mujeres sugirieron que Google utilizara un disco duro de 25 terabytes que contuviera todos los episodios de GirlsDoPorn para crear un "hash" de cada clip y bloquearlos de los resultados de búsqueda. Sin embargo, dos años después, ninguna de estas ideas se ha implementado y los videos siguen apareciendo en los resultados de búsqueda.
La respuesta inadecuada de Google
A pesar de los cambios recientes que permiten a las víctimas de abuso sexual basado en imágenes eliminar más fácilmente los resultados de búsqueda no deseados, las víctimas y los defensores están frustrados por la falta de medidas más audaces de Google. Google se ha negado a adoptar la herramienta de la industria StopNCII, que comparte información sobre imágenes íntimas no consensuadas (NCII), debido a preocupaciones sobre el contenido de la base de datos.
En el ámbito interno, los empleados de Google han sugerido medidas más estrictas, como exigir que los sitios web para adultos verifiquen el consentimiento, pero estas ideas no se han adoptado. Un portavoz de Google afirmó que la lucha contra las imágenes explícitas no consentidas (NCEI, por sus siglas en inglés) sigue siendo una prioridad y que las acciones de la empresa van más allá de lo que exige la ley.
Sin embargo, fuentes internas de Google sostienen que se podría hacer más. Señalan las restricciones más estrictas de Google sobre el material de abuso sexual infantil (CSAM, por sus siglas en inglés) como evidencia de que la empresa puede implementar medidas más estrictas para NCII.
Pide medidas proactivas
Los defensores de los derechos de las víctimas creen que Google debería tomar medidas más proactivas para protegerlas. El Centro Nacional sobre Explotación Sexual sostiene que Google debería respetar automáticamente todas las solicitudes de eliminación y exigir a los sitios web que demuestren que hubo consentimiento para grabar y publicar el contenido en cuestión.
Los sistemas actuales de Google, que intentan eliminar automáticamente los enlaces de búsqueda cuando reaparece contenido denunciado anteriormente, tienen limitaciones. El conocido sistema de protección de víctimas, diseñado para filtrar los resultados con imágenes explícitas de consultas de búsqueda similares, no es infalible.
Las víctimas como las de la estafa GirlsDoPorn se ven obligadas a permanecer alertas, buscando y denunciando constantemente nuevas publicaciones de contenido no consentido. Esta carga no debería recaer sobre las víctimas, dice Adam Dodge, fundador del grupo de defensa Ending Tech-Enabled Abuse. Pide que Google asuma una mayor responsabilidad a la hora de identificar y eliminar de forma proactiva los contenidos no consentidos.
Un llamado a la acción
Las víctimas y los defensores de los derechos de las personas instan a Google a adoptar medidas más enérgicas para combatir el creciente problema de las imágenes explícitas no consentidas. Si bien Google ha realizado algunas mejoras, como actualizar sus formularios y políticas de eliminación de contenidos, estas medidas se consideran insuficientes.
Con el aumento de las falsificaciones profundas generadas por inteligencia artificial y el aumento de los informes de NCII, la necesidad de medidas más sólidas y proactivas es más crítica que nunca. Las víctimas cuentan con que Google tome las medidas necesarias para garantizar su privacidad y seguridad, y para poner fin a la revictimización causada por la aparición continua de sus imágenes explícitas en línea.