Un aumento en nuevos usuarios a la plataforma de redes sociales BlueSky también ha traído un aumento en “contenido dañino”, lo que llevó a una campaña de moderación masiva para purgar imágenes de la red, dijo la plataforma el lunes.


“Estamos experimentando una gran afluencia de usuarios, y con eso, un aumento predecible en el contenido dañino publicado en la red”, dijo la cuenta de Seguridad de BlueSky. “Como resultado, para algunas áreas de política de alta severidad como la seguridad infantil, recientemente tomamos algunas decisiones de moderación a corto plazo para priorizar el recuerdo sobre la precisión.”


Después de la victoria del presidente electo Donald Trump a principios de este mes, millones de usuarios abandonaron X, la plataforma anteriormente conocida como Twitter en busca de alternativas.


Muchos migraron a plataformas de redes sociales alternativas, con 35 millones uniéndose a Threads de Meta y 20 millones acudiendo a BlueSky—la plataforma de redes sociales descentralizada lanzada por el ex CEO de Twitter Jack Dorsey—durante las últimas tres semanas.


La avalancha de nuevos usuarios se sumó a los más de un millón de brasileños que acudieron a BlueSky después de que un juez en la nación sudamericana prohibiera X en septiembre.


BlueSky vio otro aumento en octubre después de que el propietario de X, Elon Musk, dijera que los tweets podrían usarse para entrenar al Grok AI.


Sin embargo, junto con sus nuevos usuarios, a principios de este mes, BlueSky informó un aumento en spam, estafas y “actividades de trolling”, junto con un preocupante aumento en el material de abuso sexual infantil.


Según un informe del sitio web tecnológico Platformer, en 2023, BlueSky tuvo dos casos confirmados de contenido sexual orientado a niños publicado en la red. El lunes, hubo ocho casos confirmados.


“En las últimas 24 horas, hemos recibido más de 42,000 informes (un récord histórico para un día). Estamos recibiendo alrededor de 3,000 informes/hora. Para poner esto en contexto, en todo 2023, recibimos 360k informes”, dijo BlueSky.


BlueSky dijo que su moderación masiva podría haber resultado en “sobre-aplicación” y suspensiones de cuentas. Algunas de las cuentas suspendidas erróneamente fueron reinstaladas, mientras que otras aún podrían presentar apelaciones.


“Estamos ampliando nuestro equipo de moderación a medida que crecemos para mejorar tanto la puntualidad como la precisión de nuestras acciones de moderación”, dijo la empresa.


Para frenar los deepfakes generados por IA en su plataforma, BlueSky se asoció con el grupo de vigilancia de internet Thorn, con sede en Los Ángeles, en enero.


BlueSky implementó la tecnología de moderación más segura impulsada por IA de Thorn, que detecta contenido sexual orientado a niños e identifica conversaciones basadas en texto que sugieren explotación infantil.


Si bien X permite contenido para adultos, en mayo, la plataforma de redes sociales dijo que también había implementado la tecnología más segura de Thorn para combatir el material de abuso sexual infantil en el sitio.


“Hemos aprendido mucho de nuestras pruebas beta”, dijo Rebecca Portnoff, VP de ciencia de datos de Thorn, a Decrypt en ese momento.


“Si bien sabíamos que el abuso sexual infantil se manifiesta en todo tipo de contenido, incluidos textos, vimos de manera concreta en esta prueba beta cómo el aprendizaje automático/IA para texto puede tener un impacto real a gran escala”, dijo.


Editado por Sebastian Sinclair y Josh Quittner