Der Binance Blog hat einen neuen Artikel veröffentlicht, der die Maßnahmen zur Verbesserung der Sicherheit seiner P2P-Plattform mithilfe fortschrittlicher KI-Modelle hervorhebt. Der Artikel beleuchtet die Strategien zum Schutz der Nutzer vor weit verbreiteten Betrugsfällen im Peer-to-Peer-Handel.
Die Ende 2018 eingeführte Binance P2P-Plattform ermöglicht den Devisenhandel zwischen Bitcoin und lokalen Währungen. P2P-Handel ist zwar komfortabel, birgt aber Risiken, da er auf Vertrauen zwischen den Nutzern und nicht auf einer zentralen Börse beruht. Um diese Risiken zu minimieren, setzt Binance einen Treuhandservice und ein strenges Identitätsprüfungsverfahren ein. Betrüger finden jedoch häufig Wege, diese Sicherheitsvorkehrungen zu umgehen. Um dem entgegenzuwirken, hat Binance eine Sicherheitsinfrastruktur entwickelt, die auf Modellen künstlicher Intelligenz (KI) basiert und die spezifischen Risiken des P2P-Handels adressiert.
Der Artikel beschreibt vier häufige Betrugsmaschen auf Binance P2P: falsche Kundendienstmitarbeiter, Treuhandbetrug, Drohungen, die Polizei zu rufen, und das Täuschen von Käufern, Bestellungen nach der Zahlung zu stornieren. Betrüger geben sich als Binance-Support aus, um vertrauliche Informationen zu erhalten, behaupten fälschlicherweise, Fiat-Zahlungen würden treuhänderisch verwaltet, wenden Einschüchterungstaktiken an oder verleiten Käufer dazu, Transaktionen nach der Zahlung zu stornieren. Um diese Betrügereien zu bekämpfen, hat Binance ein Team von KI-Modellen eingesetzt, die als Gatekeeper fungieren und die Transaktionsphasen überwachen, um betrügerische Aktivitäten abzufangen.
Im Mittelpunkt dieser Bemühungen steht der Einsatz von Large Language Models (LLMs). Dabei handelt es sich um KI-Systeme, die darauf trainiert sind, menschliche Sprache zu verstehen und zu generieren. Diese Modelle werden anhand von Kommunikationsdaten aus P2P-Transaktionen optimiert, um betrügerisches Verhalten zu erkennen. Trotz der Herausforderungen beim Training aufgrund begrenzter Betrugsdaten setzt Binance Techniken wie Oversampling, Undersampling und die Änderung von Klassengewichten ein, um die Modellgenauigkeit zu verbessern. Zusätzlich werden LLMs wie LLaMa 2, OpenAssistant und Falcon verwendet, um zusätzliche Trainingsinstanzen zu erstellen und so die Betrugserkennungsfähigkeit der Modelle zu verbessern.
Die KI-Modelle analysieren die Benutzerinteraktionen in der Chat-Funktion von Binance P2P, um Benutzerabsichten zu erkennen und verdächtige Nachrichten zu identifizieren, bevor sie zu Transaktionen führen. Dieser proaktive Ansatz hat dazu beigetragen, über 2.000 potenzielle Betrugsfälle zu verhindern und 212.000 Auftragsabwicklungen mit einem Gesamtvolumen von über 28 Millionen US-Dollar zu ermöglichen. Der Artikel liefert Beispiele für die Modelle in der Praxis, beispielsweise die Warnung von Benutzern vor Zahlungsrisiken durch Dritte und die Unterstützung von Verkäufern bei der Auftragsabwicklung.
Binance unterstreicht sein Engagement für die Sicherheit seiner Nutzer durch Investitionen in KI-gestützte Tools und ein engagiertes Kundenservice-Team. Die kontinuierliche Weiterentwicklung der Sprachmodelle stellt sicher, dass sie auch gegen sich entwickelnde Betrugstaktiken wirksam bleiben. Nutzer werden gebeten, Betrugsfälle dem Binance-Support zu melden, um weitere Unterstützung zu erhalten.