De acordo com a Cointelegraph, a Meta, uma empresa de rede social com quase 4 bilhões de usuários, está testando tecnologia de reconhecimento facial para combater anúncios falsos de celebridades em suas plataformas. Os primeiros testes com um pequeno grupo de celebridades mostraram resultados promissores, e a empresa planeja testar a tecnologia com 50.000 celebridades e figuras públicas nas próximas semanas.

O sistema compara imagens nos anúncios com as fotos de perfil do Facebook e Instagram da celebridade para identificar golpes. Se uma correspondência for confirmada e o anúncio for determinado como um golpe, ele será bloqueado. Celebridades como o CEO da Tesla, Elon Musk, a apresentadora de TV americana Oprah Winfrey e os bilionários australianos da mineração Andrew Forrest e Gina Rinehart foram personificados em anúncios de golpes no passado.

A iniciativa da Meta faz parte de uma repressão mais ampla contra golpes de “isca de celebridades”, em que criminosos cibernéticos usam métodos sofisticados para roubar informações pessoais ou dinheiro das vítimas. A empresa declarou que esse esquema viola suas políticas e é prejudicial aos usuários. A Meta em breve começará a enviar notificações no aplicativo para muitas celebridades visadas, informando-as sobre sua inscrição na medida de proteção, com uma opção de cancelamento.

No entanto, a Meta deve prosseguir com cautela após um acordo recente de US$ 1,4 bilhão com o Texas por usar dados biométricos pessoais sem autorização legal. A empresa garantiu que excluiria imediatamente os dados faciais gerados ao determinar se um anúncio de celebridade é um golpe. Além disso, a tecnologia de reconhecimento facial será usada para ajudar as pessoas a verificar sua identidade e recuperar o acesso a contas comprometidas.

Apesar do aumento de anúncios de golpes de criptomoedas no Facebook, a Meta refutou as alegações do regulador do consumidor da Austrália de que quase 60% dos esquemas de investimento em criptomoedas vistos no Facebook eram golpes em agosto. Muitas vítimas são atraídas para esses golpes por meio de deepfakes gerados por IA.