ソーシャルメディアプラットフォームBlueSkyへの新規ユーザーの急増は「有害なコンテンツ」の増加ももたらし、ネットワークから画像を排除するための大規模なモデレーションキャンペーンを引き起こしましたとプラットフォームは月曜日に述べました。


「私たちはユーザーの大きな流入を経験しており、それに伴いネットワークに投稿される有害コンテンツの予測可能な増加があります」とBlueSkyの安全アカウントは述べました。「その結果、子供の安全などの非常に高い重症度のポリシー分野に関して、最近、精度よりもリコールを優先する短期的なモデレーション選択をしました。」


今月初め、選出されたドナルド・トランプ大統領の勝利の後、数百万人のユーザーが代替を求めてTwitterとして知られていたプラットフォームXを放棄しました。


多くの人々が代替のソーシャルメディアプラットフォームに移行し、過去3週間だけで3,500万人がMetaのThreadsに参加し、2,000万人がBlueSkyに殺到しました—元TwitterのCEOジャック・ドーシーによって立ち上げられた分散型ソーシャルメディアプラットフォームです。


新規ユーザーの洪水は、9月に南米の国でXを禁止した裁判官の後にBlueSkyに殺到した100万人以上のブラジル人に追加されました。


BlueSkyは、Xの所有者であるイーロン・マスクがツイートをGrok AIのトレーニングに使用できると言った後、10月に別の急増を見ました。


しかし、新しいユーザーとともに、今月初めにBlueSkyはスパム、詐欺、そして「トロール活動」の急増を報告し、子供の性的虐待素材の問題が深刻化しています。


技術ウェブサイトPlatformerの報告によると、2023年にBlueSkyはネットワーク上で子供向けの性的コンテンツが2件確認されました。月曜日には8件の確認がありました。


「過去24時間で、私たちは42,000件以上の報告を受け取りました(1日の最高記録)。私たちは約3,000件の報告を受けています。これを文脈に置くと、2023年全体で360k件の報告を受けました」とBlueSkyは述べました。


BlueSkyは、大規模なモデレーションが「過剰執行」とアカウントの停止を引き起こした可能性があると述べました。誤って停止されたアカウントの一部は復帰しましたが、他のアカウントは依然として異議を申し立てることができます。


「私たちは成長に伴いモデレーションチームを拡大しており、モデレーション行動のタイムリーさと正確さを向上させるために努力しています」と会社は述べました。


AI生成のディープフェイクをプラットフォーム上で抑制するために、BlueSkyは1月にロサンゼルスに拠点を置くインターネット監視団体Thornと提携しました。


BlueSkyは、子供向けの性的コンテンツを検出し、子供の搾取を示唆するテキストベースの会話を特定する、ThornのAI駆動の安全なモデレーション技術を展開しました。


Xは成人向けコンテンツを許可していますが、5月にソーシャルメディアプラットフォームは、サイト上の児童性的虐待素材と戦うためにThornの安全技術を実装したとも述べています。


「私たちはベータテストから多くのことを学びました」とThornのデータサイエンスのVPレベッカ・ポートノフは当時Decryptに語りました。


「私たちは、児童性的虐待がテキストを含むあらゆる種類のコンテンツに現れることを知っていましたが、このベータテストで機械学習/AIがテキストにどのように実際の影響を与えることができるかを具体的に見ました」と彼女は述べました。


セバスチャン・シンクレアとジョシュ・クイットナーによって編集されました。