• Ripple Labs застерігає від шахрайства за допомогою штучного інтелекту, яке видає себе за керівників.

  • Тактика Deepfake передбачає імітацію голосів і жестів для шахрайства.

  • Необхідно проявляти пильність під час перевірки комунікацій Ripple, оскільки завдяки прогресу штучного інтелекту виявити шахрайство стає важче.

Ripple Labs Inc., важливий учасник індустрії криптовалют, щойно попередив свою спільноту користувачів про зростаючу тенденцію до сучасних шахрайств. Фірма наголошує на проблемі шахраїв, які використовують передові інструменти штучного інтелекту для створення автентичних підроблених схвалень і подарунків.

Суть цього попередження від Ripple Labs зосереджена на небезпечному використанні штучного інтелекту для імітації зовнішності та голосу її керівників, включаючи генерального директора Бреда Гарлінгхауса. 

Демонстрації, надані Ripple на платформі, раніше відомій як Twitter, показали, як шахраї можуть клонувати навіть витончені манери, щоб обдурити нічого не підозрюючих. Ці дипфейки часто заманюють жертв обіцянками вигідних розіграшів XRP, стверджуючи, що подвоїть їхні токени з потенційною вартістю від 500 до 1000 XRP.

ПОРУШЕННЯ: @Ripple ніколи не проситиме вас надіслати нам XRP. Ніколи. Ні Бред, Девід, Моніка, Стю чи хтось із Ripple. Дізнайтеся, як захиститися від шахрайства: https://t.co/ikEFe4uf3r pic.twitter.com/No20jwLh9g

— Ripple (@Ripple) 11 квітня 2024 р

Ripple Labs підкреслює, що такі пропозиції є шахрайськими, оскільки ні компанія, ні її керівники не будуть ініціювати такі розіграші. Офіційні повідомлення щодо законних пропозицій і акцій надходять лише через перевірені канали Ripple.

Просунутий штучний інтелект і тактика уособлення

Проблема була постійною, і сам Гарлінгхаус звернувся до спільноти з приводу поширення глибоких фейкових відео, які неправдиво зображують його рекламу неіснуючих роздач. Ці відео часто демонструють незначні недоліки, наприклад нерівні рухи рота, які можуть попередити пильного глядача про їхню фальшивість.

Однак, враховуючи швидкий розвиток технології штучного інтелекту, для розпізнавання цих шахрайств потрібно більше, ніж виявлення візуальних аномалій. Завдяки моделям штучного інтелекту, таким як Voice Engine OpenAI і новий відеоінструмент Sora, відрізнити реальність від підробки стає все важче без ретельного вивчення.

Ripple Labs радить своїй спільноті бути пильними та надавати пріоритет перевірці, перш ніж відповідати на будь-які рекламні претензії чи переказувати кошти. Це керівництво є частиною постійних зусиль Ripple щодо навчання та захисту своїх користувачів від потенційних кіберзагроз, спричинених зловживанням новими технологіями.

Читайте також:

  • Майкл Сейлор попереджає власників біткойнів про глибоке фальшиве шахрайство

  • Magnate Finance викрито як шахрайство на виході з попереджувальних знаків

  • Криптошахрайство вражає YouTube, остерігайтеся Amazon Coin – AMZTR

  • Остерігайтеся шахрайства з отруєнням адресами: попередження Ledger

  • Генеральний директор Ripple викриває зростання масштабів шахрайства Deepfake на YouTube, захистіть свої кошти

Публікація Ripple Labs попереджає про збільшення ризиків шахрайства на основі штучного інтелекту вперше з’явилася на Crypto News Land.