Binance Blog опублікував нову статтю, в якій розповідається про заходи, вжиті для підвищення безпеки на платформі P2P за допомогою передових моделей ШІ. Стаття має на меті пролити світло на стратегії, які використовуються для захисту користувачів від поширених шахрайств у одноранговій торгівлі.

Платформа Binance P2P, запущена наприкінці 2018 року, полегшує транзакції обміну валют між біткойнами та місцевими валютами. Пропонуючи зручність, торгівля P2P несе в собі невід’ємний ризик, оскільки вона покладається на довіру між користувачами, а не на централізований обмін. Щоб зменшити ці ризики, Binance використовує службу депонування та суворий процес перевірки особи. Однак шахраї часто знаходять способи обійти ці запобіжні заходи. Щоб протистояти цьому, Binance розробила інфраструктуру безпеки, яка використовує моделі штучного інтелекту (ШІ) для усунення конкретних ризиків, пов’язаних з торгівлею P2P.

У статті описано чотири поширені випадки шахрайства, які зустрічаються на Binance P2P: фальшиві представники служби підтримки клієнтів, шахрайство з депонуванням, погрози викликати поліцію та обманом змусити покупців скасувати замовлення після оплати. Шахраї видають себе за службу підтримки Binance, щоб отримати конфіденційну інформацію, неправдиво стверджувати, що платіжні платежі зберігаються на умовному депонуванні, використовують тактику залякування або обманом змушують покупців скасувати транзакції після оплати. Для боротьби з цими шахрайствами Binance розгорнула команду моделей штучного інтелекту, які працюють як воротарі, відстежуючи фази транзакцій, щоб перехопити шахрайські дії.

Центральним у цих зусиллях є використання великих мовних моделей (LLM), які є системами ШІ, навченими розуміти та створювати людську мову. Ці моделі налаштовані на основі даних зв’язку з транзакцій P2P, щоб розпізнавати поведінку, пов’язану з шахрайством. Незважаючи на труднощі з навчанням через обмежені дані про шахрайство, Binance використовує такі методи, як надмірна вибірка, недостатня вибірка та зміна вагових коефіцієнтів класу для підвищення точності моделі. Крім того, програми LLM, такі як LLaMa 2, OpenAssistant і Falcon, використовуються для створення додаткових екземплярів навчання, що покращує здатність моделей виявляти шахрайство.

Моделі штучного інтелекту аналізують взаємодію користувачів у функції чату Binance P2P, щоб розпізнавати наміри користувачів, виявляючи підозрілі повідомлення, перш ніж вони призведуть до транзакцій. Цей проактивний підхід допоміг запобігти понад 2000 потенційних шахрайств і сприяв виконанню 212 000 замовлень із залученням коштів на загальну суму понад 28 мільйонів доларів США. У статті наведено приклади моделей у дії, як-от попередження користувачів про ризики сторонніх платежів і допомога продавцям у виконанні замовлень.

Binance підкреслює свою відданість безпеці користувачів, інвестуючи в інструменти на основі ШІ та спеціальну команду обслуговування клієнтів. Постійне перенавчання мовних моделей гарантує, що вони залишаються ефективними проти нових тактик шахрайства. Користувачам пропонується повідомляти про шахрайство в службу підтримки Binance для отримання додаткової допомоги.