Le procureur de la ville de San Francisco, David Chiu, a annoncé que son bureau poursuivait en justice 16 sites Web qui utilisent l'intelligence artificielle pour développer et distribuer des images deepfake de femmes et de filles nues non consensuelles. Cette annonce intervient dans un contexte d'attention accrue portée à la création et à la distribution d'images non consensuelles par l'IA.
Le procès, le premier du genre à San Francisco, accuse les opérateurs de sites Web d'avoir violé les lois nationales et fédérales qui dénoncent la pornographie deepfake, la pornographie infantile et le matériel pornographique de vengeance, ainsi que la loi californienne sur la concurrence déloyale.
Chiu veut tirer la sonnette d'alarme sur cette mauvaise pratique
Selon le New York Times, l’initiative est venue de la procureure adjointe en chef Yvonne Mere, qui a mobilisé ses collègues pour élaborer un procès qui devrait aboutir à la fermeture de 16 sites Web.
Les noms des sites Web ont été censurés dans la copie du procès rendue publique jeudi.
Bien que le bureau du procureur n’ait pas encore identifié la plupart des propriétaires de sites Web, les responsables de ce bureau ont exprimé leur optimisme quant à la recherche des noms des propriétaires des sites et à leur responsabilisation.
Lors d'une conférence de presse jeudi, Chiu a déclaré que les sites produisent du matériel « pornographique » sans le consentement des personnes sur la photo.
Chiu a laissé entendre que le procès vise à fermer les sites Web et à alerter sur cette forme d'« abus sexuel » et à y mettre un terme.
« Cette enquête nous a conduit dans les recoins les plus sombres d’Internet, et je suis absolument horrifiée pour les femmes et les filles qui ont dû subir cette exploitation. »
Chiu.
Sur ces sites Web, les utilisateurs téléchargent des photos de personnes réelles entièrement habillées, avant que l'IA ne modifie les photographies pour imiter à quoi ressemblerait la personne nue.
Comme l’indique la plainte, l’un des sites vante le caractère non consensuel des images, affirmant : « Imaginez perdre du temps à l’emmener à des rendez-vous, alors que vous pouvez simplement utiliser [nom du site Web supprimé] pour obtenir ses photos nues. »
La disponibilité et l’accessibilité des modèles d’IA open source permettent à tout un chacun d’accéder aux moteurs d’IA et de les adapter à ses besoins. Cela se traduit par la création de sites et d’applications capables de générer des nus deepfakes à partir de zéro ou de « nudifier » des photographies existantes de manière réaliste, souvent contre rémunération.
San Francisco n’est pas le seul endroit à être témoin de ce défi
En janvier, les applications de deepfake ont fait la une des journaux lorsque de fausses photos nues de Taylor Swift sont devenues virales en ligne. De nombreuses autres personnes, bien moins populaires, ont été persécutées avant et après Swift.
Chiu a admis que la « prolifération de ces images a exploité un nombre choquant de femmes et de filles à travers le monde », des célébrités aux collégiennes.
Au cours de ses propres enquêtes, le bureau du procureur de la ville a découvert que les sites Web avaient été consultés plus de 200 millions de fois au cours des six premiers mois de cette année. Le bureau s’inquiète du fait qu’une fois qu’une image est mise en ligne, il devient difficile pour les victimes de déterminer les sites Web qui ont été utilisés pour « nudifier » leurs photographies.
En effet, les images ne présentent aucun signe distinctif ou d’identification permettant de se référer aux sites Web. De plus, il est difficile pour les victimes de se débarrasser des photographies sur Internet, ce qui affecte leur estime de soi et leur empreinte numérique.
Plus tôt dans l’année, cinq élèves de huitième année de Beverly Hills ont été expulsés pour avoir généré et partagé des images truquées de 16 filles de huitième année nues, superposant les visages des filles sur des corps générés par l’IA.
Le bureau de Chiu a déclaré avoir observé des incidents similaires dans d’autres écoles en Californie, dans le New Jersey et à Washington, les images étant utilisées pour humilier, intimider et menacer les femmes et les filles.
Selon le bureau du procureur, l’effet net sur les victimes a été de briser leur réputation, de souffrir de problèmes de santé mentale, de perte d’estime de soi et, dans certains cas, de pousser des individus à devenir suicidaires.