O Binance Blog publicou um novo artigo, destacando as medidas tomadas para aumentar a segurança em sua plataforma P2P usando modelos avançados de IA. O artigo visa lançar luz sobre as estratégias empregadas para proteger os usuários de golpes prevalentes em negociações peer-to-peer.

A plataforma P2P da Binance, lançada no final de 2018, facilita as transações de câmbio entre Bitcoin e moedas locais. Embora ofereça conveniência, a negociação P2P traz riscos inerentes, pois depende da confiança entre os usuários em vez de uma troca centralizada. Para mitigar esses riscos, a Binance emprega um serviço de custódia e um processo rigoroso de verificação de identidade. No entanto, os golpistas geralmente encontram maneiras de contornar essas salvaguardas. Para neutralizar isso, a Binance desenvolveu uma infraestrutura de segurança alavancando modelos de inteligência artificial (IA) para abordar os riscos específicos associados à negociação P2P.

O artigo descreve quatro fraudes comuns encontradas no Binance P2P: representantes falsos do serviço ao cliente, fraudes de custódia, ameaças de chamar a polícia e enganar compradores a cancelar pedidos após o pagamento. Os golpistas se fazem passar pelo Suporte da Binance para extrair informações sensíveis, afirmam falsamente que os pagamentos em fiat estão em custódia, usam táticas de intimidação ou enganam os compradores a cancelar transações após o pagamento. Para combater essas fraudes, a Binance implantou uma equipe de modelos de IA que atuam como porteiros, monitorando as fases das transações para interceptar atividades fraudulentas.

Central a esse esforço está o uso de grandes modelos de linguagem (LLMs), que são sistemas de IA treinados para entender e gerar linguagem humana. Esses modelos são ajustados usando dados de comunicação de transações P2P para reconhecer comportamentos relacionados a fraudes. Apesar dos desafios no treinamento devido à limitação de dados de fraudes, a Binance emprega técnicas como sobreamostragem, subamostragem e alteração de pesos de classe para melhorar a precisão do modelo. Além disso, LLMs como LLaMa 2, OpenAssistant e Falcon são usados para criar instâncias de treinamento adicionais, aprimorando a capacidade dos modelos de detectar fraudes.

Os modelos de IA analisam as interações dos usuários no recurso de chat do Binance P2P para discernir as intenções dos usuários, identificando mensagens suspeitas antes que elas levem a transações. Essa abordagem proativa ajudou a prevenir mais de 2.000 fraudes potenciais e facilitou 212.000 conclusões de pedidos, envolvendo fundos totalizando mais de 28 milhões de dólares. O artigo fornece exemplos dos modelos em ação, como alertar os usuários sobre riscos de pagamentos de terceiros e ajudar os vendedores a concluir pedidos.

A Binance enfatiza seu compromisso com a segurança do usuário ao investir em ferramentas impulsionadas por IA e uma equipe dedicada de atendimento ao cliente. O contínuo re-treinamento dos modelos de linguagem garante que eles permaneçam eficazes contra táticas de fraude em evolução. Os usuários são incentivados a relatar fraudes ao Suporte da Binance para assistência adicional.