Wichtigste Erkenntnisse
Die Binance P2P-Plattform (Peer-to-Peer) verwendet erweiterte Large Language Models (LLMs), um Transaktionen auf Anzeichen betrügerischen Verhaltens zu überwachen und bei der Lösung von Benutzereinsprüchen zu helfen.
Zu den gängigen Betrugstaktiken gehört es, Verkäufer dazu zu verleiten, ihre Kryptowährungen freizugeben, bevor sie die tatsächliche Zahlung erhalten, oder Käufer aufzufordern, ihre Bestellung nach der Zahlung zu stornieren.
Durch die Kombination von künstlichen Intelligenztools und einem sorgfältigen Kundenserviceteam möchten wir ein sicheres Benutzererlebnis auf Binance P2P gewährleisten.
Erhalten Sie einen Einblick in die Arbeit der unbesungenen Helden, die hinter den Kulissen für ein sicheres Benutzererlebnis auf Binance P2P sorgen.
Die P2P-Plattform von Binance wurde Ende 2018 eingeführt, um Währungsumtauschtransaktionen zwischen Bitcoin und lokalen Währungen zu erleichtern. Peer-to-Peer-Handel (P2P) ist zwar praktisch, birgt aber auch spezifische Risiken. Anstatt über eine zentrale Börse zu gehen, vertrauen Sie darauf, dass ein anderer Benutzer Ihrer Anfrage zum Kauf oder Verkauf von Kryptowährungen nachkommt.
Was passiert, wenn Sie mit einem Betrüger Geschäfte machen? Seriöse P2P-Marktplätze wie Binance P2P nutzen einen Treuhandservice und ein strenges Identitätsüberprüfungsverfahren, um betrügerische Aktivitäten zu bekämpfen. Aber selbst mit allen entsprechenden Sicherheitsvorkehrungen können Betrüger einen Weg finden und tun dies auch oft.
Mithilfe von Modellen der künstlichen Intelligenz (KI) haben wir eine Sicherheitsinfrastruktur aufgebaut, die die mit P2P-Handel verbundenen spezifischen Risiken mindern soll. Doch bevor wir tiefer in die Materie einsteigen, werfen wir einen Blick auf einige gängige Betrügereien, denen Händler bei der Verwendung der Chat-Funktion auf Binance P2P ausgesetzt sind.
Vier häufige Binance P2P-Betrügereien
1. Gefälschte Kundendienstmitarbeiter
Betrüger geben sich oft als Binance-Support aus, um ihre Opfer dazu zu bringen, ihre Konto- oder Kreditkartendaten preiszugeben. Sie behaupten möglicherweise, dass Binance die Zahlung bereits „erhalten“ hat, bevor sie den Verkäufer auffordern, seine Kryptowährung auf ein Treuhandkonto freizugeben.
Eines sollten Sie sich merken: Unser Support-Team wird unter keinen Umständen über die Chatbox von Binance P2P mit Ihnen kommunizieren.
2. Treuhandbetrug
Bei diesem Betrug gibt sich der Betrüger als Käufer aus. Während der Transaktion lügt der Betrüger und behauptet, die Fiat-Zahlung werde im Treuhandkonto von Binance P2P hinterlegt. Der Betrüger behauptet, Binance werde das Geld „senden“, sobald Sie Ihre Kryptowährung freigeben.
So funktioniert das Treuhandsystem von Binance P2P nicht. Wir sichern vorübergehend nur die Kryptowährungen der Verkäufer treuhänderisch, und Fiat-Zahlungen von Käufern laufen nie über unseren Treuhandservice.
3. Drohung, die Polizei zu rufen
Betrüger behaupten möglicherweise, sie hätten nach der Bestellung bezahlt. Wenn Sie zögern, werden sie Sie unter Druck setzen, die Zahlung freizugeben, indem sie drohen, die Polizei zu rufen.
Geben Sie Drohungen bei Binance P2P nicht nach. Bei berechtigten Streitigkeiten oder Problemen mit Ihren Handelspartnern legen Sie bitte Berufung ein, indem Sie die Schritte in dieser Anleitung befolgen: So legen Sie Berufung gegen P2P-Aufträge in der Binance-App ein.
4. Käufer dazu verleiten, die Bestellung nach der Zahlung zu stornieren
Es sind nicht immer vom Käufer initiierte Betrügereien – auch Verkäufer können böswillige Machenschaften durchziehen. Nach Zahlungseingang kann der Verkäufer behaupten, es gebe ein Problem mit dem Einmalkennwort (OTP) oder der Zahlungsfreigabe, und dem Käufer vorschlagen, die Bestellung zu stornieren. Der Verkäufer „verspricht“ dann, Ihnen den vollen Betrag zurückzuerstatten, sobald die Bestellung storniert wird.
Mit Sicherheit ist der Verkäufer nur ein Betrüger, der nie mit einer Rückerstattung gerechnet hat. Wer Sie nach der Zahlung auffordert, eine Bestellung zu stornieren, versucht wahrscheinlich, Sie zu betrügen.
Lernen Sie die unsichtbaren Wächter bei der Arbeit kennen
Um unsere Benutzer vor den oben genannten Betrügereien zu schützen, arbeiten wir rund um die Uhr im Hintergrund mit unserem eigenen Team aus KI-Helden.
Diese Helden sind spezialisierte KI-Modelle, die darauf trainiert sind, Benutzer aufzuspüren, die mit böser Absicht handeln. Die Modelle fungieren im Wesentlichen als Torwächter und überwachen verschiedene Phasen der Transaktionspipeline mit dem einzigen Ziel, betrügerische Aktivitäten abzufangen. Hier ist ein genauerer Blick auf die Modelle, die wir verwenden, und wie sie funktionieren, um Millionen von Benutzern ein zuverlässiges P2P-Handelserlebnis zu bieten.
Alleskönner: Large Language Model (LLM)
Der Begriff „Large Language Model“ (LLM) bezieht sich auf ein allgemeines KI-System, das in der Lage ist, menschliche Sprache zu „verstehen“ und zu generieren. LLMs werden mit Textdaten aus dem gesamten Internet trainiert.
Mit der Zeit können diese Modelle trainiert oder optimiert werden, um bei bestimmten Aufgaben hervorragende Leistungen zu erbringen, etwa bei der Generierung origineller Textstücke oder der Erkennung von Nachrichten, die auf böswillige Absichten des Absenders hinweisen können.
Wie verwenden wir LLMs, um unsere P2P-Modelle zu trainieren?
Um unsere Modelle zu optimieren, setzen wir sie Kommunikationsdaten aus, die mit P2P-Transaktionen in Zusammenhang stehen – also dem, was Menschen einander sagen, während sie handeln. Während des Lernprozesses stießen unsere Modelle zunächst auf mehr Beispiele allgemeiner Transaktionsaktivität als auf Betrugsverhalten. Dies stellte eine erhebliche Hürde dar: Wie können unsere Modelle lernen, wie Betrüger kommunizieren, wenn sie nur so wenige Instanzen haben, aus denen sie Daten ziehen können?
Wir haben mehrere Ansätze ausprobiert:
Erweitern des Trainingssatzes der Minderheitsgruppe (Betrügerstichproben) durch häufigere Wiederholung ihrer Instanzen (Überabtastung) im Modell.
Reduzierung der Anzahl von Instanzen von normalen Benutzern (Undersampling).
Die Wichtigkeit jeder Gruppe optimieren (die Klassengewichte ändern).
Alle drei Methoden waren aufgrund der Datenvielfalt aufgrund der begrenzten Stichprobengröße immer noch unbefriedigend. Der effektivste Ansatz war die Erstellung zusätzlicher Trainingsinstanzen über LLMs wie LLaMa 2, OpenAssistant und Falcon.
Wir haben diese LLMs verwendet, um vorhandene Beispiele für das Kommunikationsverhalten von Betrügern neu zu formulieren oder sogar neue Beispiele mit ähnlichen Botschaften zu erfinden. Dies führte zu einem ausgewogeneren Satz an Trainingsmaterial mit einer zufriedenstellenden Stichprobengröße von Betrügern für unsere Klassifizierungsmodelle.
Die Absichten der Benutzer verstehen
Die meisten Benutzerinteraktionen auf Binance P2P finden in unserer integrierten Chat-Funktion statt. Der Inhalt dieser Gespräche kann wichtige Erkenntnisse über die Absichten der Benutzer liefern. Wenn sich beispielsweise jemand als Kundendienstmitarbeiter ausgibt, die Zahlungsregeln verletzt oder Hilfe beim Abschließen einer Bestellung benötigt, sagt er im Chat bestimmte Dinge.
Wir optimieren unsere LLMs kontinuierlich, um die Absichten der Benutzer in verschiedenen P2P-Situationen zu erkennen, wie im Diagramm oben dargestellt. Unsere Modelle sind darauf zugeschnitten, die für unseren Marktplatz spezifischen Situationen zu erfassen und zwischen verdächtigen und normalen Interaktionen zu unterscheiden.
Unser Ziel ist es, Betrug zu verhindern, bevor er unseren Benutzern Schaden zufügen kann. LLMs helfen uns, verdächtige Nachrichten zu kennzeichnen, bevor die Konversation zu einer Transaktion führt. Sie erhöhen nicht nur die Sicherheit, sondern helfen uns auch regelmäßig dabei, Benutzer zu identifizieren und zu unterstützen, die Hilfe beim Abschluss einer Transaktion benötigen. Bisher haben uns unsere KI-Modelle dabei geholfen, weit über 2.000 potenzielle Betrugsfälle zu erkennen und zu verhindern, und 212.000 Auftragsabschlüsse im Beschwerde-Chat automatisch ermöglicht, wobei es um Gelder in Höhe von über 28 Millionen US-Dollar ging.
Um die Funktionsweise unserer Modelle besser zu veranschaulichen, finden Sie hier zwei Beispiele im Einsatz.
Abschließende Gedanken
Bei Binance investieren wir erhebliche Ressourcen in die Gewährleistung der Sicherheit unserer Benutzer und nutzen die unterschiedlichsten Ansätze, um dieses Ziel zu erreichen – einschließlich innovativer Lösungen wie KI-gestützter Tools. Wir verwenden auf unserem P2P-Marktplatz umfangreiche Sprachmodelle, um Benutzer zu identifizieren, die möglicherweise verdächtiges Verhalten an den Tag legen. Um der sich ständig weiterentwickelnden Betrugsbranche entgegenzuwirken, werden unsere Sprachmodelle ständig neu trainiert, um die neuesten Taktiken und Trends zu erkennen.
Neben unseren KI-Tools arbeitet unser leidenschaftliches Team von Kundendienstmitarbeitern – schließlich kann in manchen Situationen nichts die menschliche Note ersetzen. Gemeinsam sorgen sie dafür, dass Binance nicht nur sicher ist, sondern auch ein außergewöhnliches Benutzererlebnis bietet und dass jeder Benutzer Vertrauen in jedes Produkt und jede Funktion haben kann, die im Binance-Ökosystem verfügbar sind.
Wenn Sie Opfer eines P2P-Betrugs geworden sind, reichen Sie bitte einen Bericht beim Binance-Support ein, indem Sie die Schritte in dieser Anleitung befolgen: So melden Sie Betrug beim Binance-Support.
Weitere Informationen
Binance Research: KI in Krypto – Anwendungsfälle und Möglichkeiten erkunden
Warum und wie wir maschinelles Lernen in Echtzeit nutzen, um betrügerische Aktivitäten bei Binance zu überwachen
Kennen Sie Ihren Betrug? Blogserie