Principais conclusões

  • Utilizando modelos de visão computacional (CV) baseados em inteligência artificial (IA) para avaliar comprovantes de pagamentos, oferecemos aos usuários da plataforma P2P da Binance uma camada adicional de proteção contra atividades fraudulentas.

  • Nosso compromisso em melhorar a experiência do usuário se manifesta na manutenção de uma estrutura de segurança simples, porém robusta, em nossa plataforma P2P. Acreditamos que mesmo com a utilização de tecnologias de ponta como a IA, a segurança não deve ser feita à custa da complexidade. 

  • Uma abordagem cuidadosa para realizar transações peer-to-peer é o primeiro passo para garantir a segurança dos seus ativos. Exerça sempre vigilância ao receber qualquer comprovante de pagamento. Confirme se o valor real recebido corresponde ao valor da transação declarado.

Decepção de Percepção: A Ameaça da Manipulação POP 

Na postagem anterior desta série, Guardiões invisíveis da Binance P2P: usando IA para proteger usuários de criptografia, discutimos como usamos modelos de linguagem grandes (LLMs) para fornecer supervisão em tempo real sobre Comunicações de usuários P2P para ajudar a detectar transações potencialmente duvidosas. Agora, mudamos nosso foco para outro aspecto do desafio de aproveitar tecnologia de ponta para proteger usuários P2P e analisar a aplicação de modelos de visão computacional (CV) para detectar golpistas.

Nas transações peer-to-peer, o papel do comprovante de pagamento (POP) válido é fundamental. É fundamental que os usuários empreguem a devida diligência para garantir que receberam a quantia de negociação correta. No entanto, ferramentas de edição, mesmo as mais simples, estão prontamente disponíveis para que indivíduos inescrupulosos possam fabricar POPs aparentemente autênticos. Isto representa um verdadeiro desafio para aqueles que recebem a identificação de transações falsificadas. Os golpistas também podem tornar o processo de negociação ainda mais intimidante usando várias táticas de engenharia social, como apressar ou confundir a vítima. 

No geral, mais de 250.000 imagens são enviadas diariamente em nossas plataformas, não se limitando a imagens POP. As variações nesses POPs são múltiplas – as imagens diferem em formato, design e fonte, o que acrescenta outra camada de complexidade à tarefa de detectar manipulações.

Embora a ameaça de comprovantes de pagamento (POPs) fraudulentos persista, nossos usuários não têm que combater sozinhos esses POPs enganosos. Equipada com algoritmos avançados de IA, nossa plataforma examina minuciosamente todas as imagens enviadas durante as transações, garantindo sua autenticidade e legitimidade em tempo real. Esses modelos robustos são adequados para identificar e sinalizar quaisquer sinais de adulteração ou manipulação de imagens. Essas salvaguardas rigorosas são implementadas para garantir a integridade das transações dos nossos usuários, evitando preventivamente tentativas fraudulentas e, assim, mitigando o risco de possíveis perdas do usuário.

Desmascarando o engano: aproveitando a visão computacional para detectar provas de pagamento falsas

A visão computacional (CV), um campo da inteligência artificial onde os computadores são treinados para interpretar e compreender o mundo visual, oferece uma das soluções mais robustas disponíveis hoje para a questão de comprovantes de pagamento falsificados. 

Usando técnicas como reconhecimento óptico de caracteres (OCR), classificação de imagens, detecção de objetos e processamento digital de imagens, os modelos de CV podem ser treinados para diferenciar entre comprovantes de pagamento genuínos e fraudulentos. 

Esses modelos podem analisar uma fotografia ou captura de tela, pixel por pixel, detectando inconsistências e anomalias que normalmente seriam imperceptíveis ao olho humano. Seja um esquema de cores ligeiramente distorcido, um logotipo distorcido ou alterações sutis de fonte, o modelo pode identificar essas discrepâncias com precisão. 

Em conjunto com a utilização dos modelos CV, também realizamos verificações cruzadas adicionais com os metadados da imagem, bem como com outros parâmetros, como padrões de negociação, para obter uma visão abrangente da situação.

Nas seções a seguir, examinaremos mais de perto algumas das verificações que implementamos para garantir a legitimidade do POP.

Figura 1: [Atividade] Você consegue identificar quais informações foram adulteradas?

Reconhecimento Óptico de Caracteres (OCR)

Uma arma fundamental em nosso arsenal contra golpistas é uma técnica chamada reconhecimento óptico de caracteres (OCR). Os modelos de OCR nos ajudam a estabelecer duas informações essenciais: 

  1. O conteúdo textual que foi identificado e transcrito da imagem.

  2. A posição desses trechos de texto identificados e transcritos dentro da imagem.

No mundo das transações online, ferramentas avançadas de edição estão prontamente disponíveis. Os golpistas costumam explorar essas ferramentas para manipular partes de um POP autêntico. Algumas das áreas comumente manipuladas de um POP legítimo incluem:

  • Data e hora da transação. Este campo representa a data e hora exatas em que a transação foi processada. Os golpistas podem alterar essas informações para refletir um cronograma favorável ao seu engano. O OCR pode ajudar a verificar a precisão desses dados, cruzando-os com o carimbo de data/hora da transação real.

  • ID da transação. Este é um identificador exclusivo para cada transação. Qualquer inconsistência neste campo é um sinal revelador de adulteração. OCR ajuda a verificar o ID da transação, fazendo referência cruzada com transações anteriores e verificando qualquer ID reutilizado.

  • Valor da transação. Talvez o campo mais comumente manipulado. Alterar informações neste campo pode levar a discrepâncias entre os valores reais e transmitidos. Aqui, a capacidade do sistema OCR de identificar números com precisão desempenha um papel crítico na prevenção de fraudes.

  • Nome. Os nomes do pagador e do beneficiário também são adulterados com bastante frequência. Os modelos de OCR podem auxiliar na verificação cruzada das informações extraídas do campo do nome, comparando-as com as credenciais conhecidas das partes envolvidas.

Figura 2. Destaques das informações adulteradas. Na realidade, as edições seriam menos perceptíveis ao olho destreinado.

Processamento Digital de Imagens

Às vezes, os menores detalhes contam as maiores histórias. No contexto da manipulação de imagens, quaisquer alterações feitas numa imagem, por mínimas que sejam, podem deixar vestígios ou anomalias que são captadas pelos nossos modelos. Esses sinais fracos geralmente servem como evidência tangível de adulteração. As áreas mais vulneráveis ​​a esta forma de manipulação, conforme descrito na Figura 1, têm maior probabilidade de revelar se uma imagem foi alterada. 

Para explicar melhor a desafiadora tarefa de detectar essas anomalias, identificamos alguns tipos comuns de vestígios de manipulação:

  • Formatação ou alinhamento de texto não natural. O mais perceptível é o texto inclinado, desalinhado ou que apresenta uma fonte totalmente diferente do resto da imagem. Geralmente, isso é um sinal bastante aparente de adulteração.

  • Discrepâncias sutis de cores de fundo. Mais sutis são as pequenas diferenças na cor de fundo que podem escapar de um observador casual, mas não do nosso modelo abrangente. 

  • Distorções no nível de pixel. A anomalia menos perceptível são ruídos ou inconsistências no nível dos pixels, predominantemente em torno dos campos manipulados. 

Uma ferramenta inestimável empregada para identificar tais vestígios de manipulação é a Análise de Nível de Erro (ELA). ELA inspeciona o nível de compactação em uma imagem. Em essência, identifica áreas de uma imagem que apresentam níveis de compressão diferentes daqueles da área circundante, o que pode significar que foram submetidas a edição recente. Uma imagem original e intocada terá níveis de erro relativamente consistentes. Por outro lado, as partes ajustadas da imagem exibirão um resultado ELA mais brilhante ou vívido.

Figura 3. Exemplo de imagem resultante após aplicação de ELA, que fornece algumas pistas sobre as áreas que podem ter sido adulteradas.

Nossos modelos são constantemente treinados e atualizados para se adaptarem às técnicas em constante evolução empregadas pelos golpistas, garantindo a integridade da plataforma e preservando a confiança que nossos usuários nos depositam.

Pesquisa de imagens semelhantes

Embora tenhamos abordado casos em que as imagens são manipuladas, existem outras táticas igualmente tortuosas empregadas por golpistas. Outro método de fraude comumente usado é usar repetidamente POP legítimo idêntico ou ligeiramente modificado para múltiplas transações. Se a vítima não verificar a transação verificando sua conta bancária, ela poderá cair inadvertidamente nesse golpe.

Dado o número colossal de transações e suas imagens associadas, a tarefa de digitalizar e comparar cada imagem não é tarefa fácil. Sua implementação em tempo real consome muitos recursos e, portanto, é um desafio prático.

Para enfrentar esse desafio, empregamos um codificador de imagem que condensa imagens em resumos de dados menores, mas vitais. Esses trechos são armazenados em nosso robusto banco de dados de vetores, permitindo que o algoritmo conduza varreduras quase em tempo real para imagens semelhantes. Esta abordagem sistemática provou ser extremamente eficaz, permitindo-nos impedir centenas de tentativas de fraude diariamente. A utilização de um algoritmo de busca de imagens semelhante é mais uma prova do nosso compromisso em garantir proativamente a segurança das transações em nossa plataforma P2P.

Figura 4. Pipeline de pesquisa vetorial quase em tempo real

Considerações finais 

No mundo das transações criptográficas peer-to-peer, enfrentar o desafio da fraude é cada vez mais vital. Estamos na linha de frente, refinando e aproveitando constantemente soluções tecnológicas avançadas para fortalecer nossas defesas contra fraudadores que visam nossa plataforma e nossos usuários.

Nosso uso de IA exemplifica nossa abordagem proativa para garantir a integridade de cada imagem enviada nas transações. Usando vigilância e análise em tempo real, esses poderosos modelos de IA podem identificar com precisão e rapidez tentativas de manipulação de imagens. A eficácia destas medidas é notável, especialmente tendo em conta o vasto volume e diversidade de imagens trocadas diariamente na nossa plataforma.

No entanto, também acreditamos que a segurança não deve prejudicar a experiência do usuário. Continuamos empenhados em garantir que todos os utilizadores desfrutem de uma experiência simples e contínua na nossa plataforma P2P, sem se preocuparem com a integridade das suas negociações. Defendemos o princípio de que as transações seguras e a navegação fácil de usar não são mutuamente exclusivas, mas sim complementares no caminho para um ambiente comercial digital próspero.

A batalha contra as transações P2P fraudulentas não termina na implantação de tecnologia avançada. Também requer a vigilância e o envolvimento da nossa comunidade de usuários. Ao combinar o formidável arsenal tecnológico à nossa disposição e a participação ativa da comunidade de utilizadores, podemos oferecer um mercado seguro e confiável.

Observação

Nos casos em que nossos modelos identificam POP altamente suspeitos, você poderá ver a seguinte mensagem de advertência aparecendo na sua caixa de bate-papo:

Faça login em sua conta de pagamento e verifique se o pagamento correto foi recebido. Caso contrário, NÃO libere antes de verificar.

Certifique-se de verificar sua conta!

Se você foi vítima de um golpe P2P, registre uma denúncia ao Suporte da Binance seguindo as etapas deste guia: Como denunciar golpes no suporte da Binance

Leitura adicional