Wzrost liczby nowych użytkowników na platformie społecznościowej BlueSky przyniósł również wzrost „szkodliwych treści”, co doprowadziło do masowej kampanii moderacyjnej w celu usunięcia obrazów z sieci, powiedziała platforma w poniedziałek.
„Doświadczamy ogromnego napływu użytkowników, a z tym przewidywanego wzrostu szkodliwych treści publikowanych w sieci,” powiedziało konto bezpieczeństwa BlueSky. „W rezultacie, w przypadku niektórych obszarów polityki o bardzo wysokiej wadze, takich jak bezpieczeństwo dzieci, niedawno podjęliśmy krótkoterminowe decyzje moderacyjne, aby priorytetować przypomnienie nad precyzją.”
Po zwycięstwie prezydenta-elekta Donalda Trumpa na początku tego miesiąca, miliony użytkowników porzuciły X, platformę wcześniej znaną jako Twitter, w poszukiwaniu alternatyw.
Wiele osób przeniosło się na alternatywne platformy społecznościowe, a 35 milionów dołączyło do Threads Meta, a 20 milionów do BlueSky — zdecentralizowanej platformy społecznościowej uruchomionej przez byłego dyrektora generalnego Twittera Jacka Dorseya — tylko w ciągu ostatnich trzech tygodni.
Fala nowych użytkowników dodała do ponad miliona Brazylijczyków, którzy przenieśli się do BlueSky po tym, jak sędzia w Ameryce Południowej zakazał X we wrześniu.
BlueSky odnotowało kolejny wzrost w październiku po tym, jak właściciel X, Elon Musk, powiedział, że tweety mogą być używane do trenowania AI Grok.
Jednak wraz z nowymi użytkownikami, na początku tego miesiąca, BlueSky zgłosiło wzrost spamu, oszustw i „aktywizmu trolli”, a także niepokojący wzrost materiałów o wykorzystywaniu seksualnym dzieci.
Według raportu serwisu technologicznego Platformer, w 2023 roku BlueSky miało dwa potwierdzone przypadki treści seksualnych skierowanych do dzieci opublikowanych w sieci. W poniedziałek było osiem potwierdzonych przypadków.
„W ciągu ostatnich 24 godzin otrzymaliśmy ponad 42 000 zgłoszeń (wszystko- czasowy rekord w ciągu jednego dnia). Otrzymujemy około 3 000 zgłoszeń/godzinę. Dla kontekstu, w całym 2023 roku otrzymaliśmy 360k zgłoszeń,” powiedziało BlueSky.
BlueSky powiedziało, że ich masowa moderacja mogła spowodować „nadmierne egzekwowanie” i zawieszenia kont. Niektóre z błędnie zawieszonych kont zostały przywrócone, podczas gdy inne wciąż mogą składać odwołania.
„Rozszerzamy nasz zespół moderacyjny w miarę rozwoju, aby poprawić zarówno terminowość, jak i dokładność naszych działań moderacyjnych,” powiedziała firma.
Aby powstrzymać generowane przez AI deepfake'i na swojej platformie, BlueSky nawiązało współpracę z grupą internetową Thorn z siedzibą w Los Angeles w styczniu.
BlueSky wdrożyło technologię moderacji Safer wspieraną przez AI Thorn, która wykrywa treści seksualne skierowane do dzieci i identyfikuje rozmowy tekstowe sugerujące wykorzystywanie dzieci.
Chociaż X pozwala na treści dla dorosłych, w maju platforma społecznościowa ogłosiła, że wdrożyła również technologię Safer Thorn, aby walczyć z materiałami o wykorzystywaniu seksualnym dzieci na stronie.
„Dużo się nauczyliśmy z naszych testów beta,” powiedziała Rebecca Portnoff, wiceprezes ds. nauki o danych w Thorn, w tamtym czasie.
„Chociaż wiedzieliśmy, że wykorzystywanie seksualne dzieci objawia się we wszystkich typach treści, w tym tekstowych, w trakcie tego testowania beta zobaczyliśmy konkretnie, jak uczenie maszynowe/AI dla tekstu może mieć rzeczywisty wpływ w skali,” powiedziała.
Edytowane przez Sebastiana Sinclaira i Josha Quittnera