Une afflux de nouveaux utilisateurs sur la plateforme de médias sociaux BlueSky a également entraîné une augmentation du « contenu nuisible », entraînant une campagne de modération de masse pour purger des images du réseau, a déclaré la plateforme lundi.
« Nous connaissons un énorme afflux d'utilisateurs, et avec cela, une augmentation prévisible du contenu nuisible publié sur le réseau », a déclaré le compte Sécurité de BlueSky. « En conséquence, pour certains domaines politiques de très haute gravité comme la sécurité des enfants, nous avons récemment pris certaines décisions de modération à court terme pour prioriser le rappel sur la précision. »
Après la victoire du président élu Donald Trump plus tôt ce mois-ci, des millions d'utilisateurs ont abandonné X, la plateforme anciennement connue sous le nom de Twitter, à la recherche d'alternatives.
Beaucoup ont migré vers des plateformes de médias sociaux alternatives, avec 35 millions rejoignant Threads de Meta et 20 millions se rendant sur BlueSky—la plateforme de médias sociaux décentralisée lancée par l'ancien PDG de Twitter Jack Dorsey—au cours des trois dernières semaines seulement.
L'afflux de nouveaux utilisateurs s'est ajouté aux plus d'un million de Brésiliens qui se sont précipités vers BlueSky après qu'un juge dans le pays sud-américain a interdit X en septembre.
BlueSky a connu une autre poussée en octobre après que le propriétaire de X, Elon Musk, a déclaré que les tweets pouvaient être utilisés pour entraîner l'IA Grok.
Cependant, avec ses nouveaux utilisateurs, début ce mois-ci, BlueSky a signalé une augmentation des spams, des arnaques et des « activités de trolling », ainsi qu'une inquiétante hausse du matériel d'abus sexuel d'enfants.
Selon un rapport du site technologique Platformer, en 2023, BlueSky avait deux cas confirmés de contenu sexuel orienté vers les enfants publié sur le réseau. Lundi, il y avait huit cas confirmés.
« Au cours des 24 dernières heures, nous avons reçu plus de 42 000 signalements (un chiffre record pour une seule journée). Nous recevons environ 3 000 signalements/heure. Pour mettre cela en contexte, en 2023, nous avons reçu 360k signalements », a déclaré BlueSky.
BlueSky a déclaré que sa modération de masse pourrait avoir entraîné une « surapplication » et des suspensions de comptes. Certains des comptes suspendus à tort ont été rétablis, tandis que d'autres peuvent encore faire appel.
« Nous élargissons notre équipe de modération à mesure que nous grandissons pour améliorer à la fois la rapidité et l'exactitude de nos actions de modération », a déclaré l'entreprise.
Pour limiter les deepfakes générés par l'IA sur sa plateforme, BlueSky a fait équipe avec le groupe de surveillance Internet basé à Los Angeles, Thorn, en janvier.
BlueSky a déployé la technologie de modération Safer alimentée par l'IA de Thorn, qui détecte le contenu sexuel orienté vers les enfants et identifie les conversations textuelles suggérant l'exploitation des enfants.
Bien que X autorise le contenu pour adultes, en mai, la plateforme de médias sociaux a déclaré avoir également mis en œuvre la technologie Safer de Thorn pour lutter contre le matériel d'abus sexuel d'enfants sur le site.
« Nous avons beaucoup appris de nos tests bêta », a déclaré Rebecca Portnoff, vice-présidente de la science des données de Thorn, à Decrypt à l'époque.
« Bien que nous sachions dès le départ que l'abus sexuel d'enfants se manifeste sous toutes sortes de contenus, y compris le texte, nous avons vu de manière concrète lors de cette phase de test bêta comment l'apprentissage automatique/l'IA pour le texte peut avoir un impact dans la vie réelle à grande échelle », a-t-elle déclaré.
Édité par Sebastian Sinclair et Josh Quittner