Le blog Binance a publié un nouvel article, mettant en avant les mesures prises pour améliorer la sécurité sur sa plateforme P2P à l'aide de modèles d'IA avancés. L'article vise à mettre en lumière les stratégies employées pour protéger les utilisateurs des escroqueries courantes dans le trading peer-to-peer.

La plateforme P2P de Binance, lancée fin 2018, facilite les transactions de change entre Bitcoin et les devises locales. Bien qu'elle soit pratique, la négociation P2P comporte des risques inhérents, car elle repose sur la confiance entre les utilisateurs plutôt que sur un échange centralisé. Pour atténuer ces risques, Binance utilise un service d'entiercement et un processus strict de vérification d'identité. Cependant, les escrocs trouvent souvent des moyens de contourner ces mesures de protection. Pour contrer ce problème, Binance a développé une infrastructure de sécurité exploitant des modèles d'intelligence artificielle (IA) pour répondre aux risques spécifiques associés au trading P2P.

L'article décrit quatre escroqueries courantes rencontrées sur Binance P2P : de faux représentants du service client, des escroqueries par séquestre, des menaces d'appel à la police et des tentatives d'incitation des acheteurs à annuler des commandes après le paiement. Les escrocs se font passer pour le support de Binance pour extraire des informations sensibles, prétendent faussement que les paiements fiat sont détenus sous séquestre, utilisent des tactiques d'intimidation ou trompent les acheteurs pour qu'ils annulent les transactions après le paiement. Pour lutter contre ces escroqueries, Binance a déployé une équipe de modèles d'IA qui fonctionnent comme des gardiens, surveillant les phases de transaction pour intercepter les activités frauduleuses.

Au cœur de cet effort se trouve l'utilisation de grands modèles de langage (LLM), qui sont des systèmes d'IA formés pour comprendre et générer le langage humain. Ces modèles sont affinés à l'aide de données de communication issues de transactions P2P pour reconnaître les comportements liés aux escroqueries. Malgré les difficultés de formation dues au manque de données sur les escroqueries, Binance utilise des techniques telles que le suréchantillonnage, le sous-échantillonnage et la modification des pondérations de classe pour améliorer la précision du modèle. De plus, des LLM comme LLaMa 2, OpenAssistant et Falcon sont utilisés pour créer des instances de formation supplémentaires, améliorant ainsi la capacité des modèles à détecter les escroqueries.

Les modèles d'IA analysent les interactions des utilisateurs dans la fonction de chat de Binance P2P pour discerner les intentions des utilisateurs, en identifiant les messages suspects avant qu'ils ne conduisent à des transactions. Cette approche proactive a permis d'éviter plus de 2 000 escroqueries potentielles et de faciliter 212 000 commandes, impliquant des fonds totalisant plus de 28 millions de dollars. L'article fournit des exemples de modèles en action, tels que l'alerte des utilisateurs sur les risques de paiement par des tiers et l'assistance aux vendeurs pour terminer les commandes.

Binance souligne son engagement envers la sécurité des utilisateurs en investissant dans des outils basés sur l'IA et une équipe de service client dédiée. Le recyclage continu des modèles de langage garantit leur efficacité face aux tactiques d'escroquerie en constante évolution. Les utilisateurs sont encouragés à signaler les escroqueries au support Binance pour obtenir de l'aide.