• Ripple Labs avertizează împotriva înșelătoriilor îmbunătățite de inteligența artificială care uzurpa identitatea directorilor.

  • Tacticile deepfake implică imitarea vocilor și a gesturilor pentru fraudă.

  • Vigilență a cerut să verifice comunicațiile Ripple, deoarece progresele AI fac înșelătoriile mai greu de detectat.

Ripple Labs Inc., participantul semnificativ al industriei criptomonedei, tocmai și-a alertat comunitatea de utilizatori cu privire la tendința în creștere a înșelătoriilor la zi. Firma a subliniat problema trișorilor care folosesc instrumente avansate de inteligență artificială pentru a produce aprobări și cadouri contrafăcute cu aspect autentic.

Miezul acestui avertisment de la Ripple Labs se concentrează pe utilizarea periculoasă a inteligenței artificiale pentru a imita aspectul și vocea directorilor săi, inclusiv CEO Brad Garlinghouse.

Demonstrațiile oferite de Ripple pe platforma cunoscută anterior sub numele de Twitter au arătat cum escrocii pot clona chiar și manierisme subtile pentru a înșela pe cei nebănuiți. Aceste deepfake-uri atrag adesea victimele cu promisiuni de cadouri XRP profitabile, pretinzând că își dublează tokenurile, cu valori potențiale între 500 și 1.000 XRP.

BREAKING: @Ripple nu vă va cere niciodată să ne trimiteți XRP. Niciodată. Nici Brad, David, Monica, Stu sau oricine de la Ripple. Aflați cum să vă protejați de escrocherii: https://t.co/ikEFe4uf3r pic.twitter.com/No20jwLh9g

— Ripple (@Ripple) 11 aprilie 2024

Ripple Labs subliniază că astfel de oferte sunt frauduloase, deoarece nici compania, nici directorii săi nu ar iniția astfel de cadouri. Comunicările oficiale privind ofertele și promoțiile legitime vin doar prin canalele Ripple verificate.

AI avansate și tactici de uzurpare a identității

Problema a fost persistentă, Garlinghouse însuși adresându-se comunității despre creșterea videoclipurilor deepfake care îl prezintă în mod fals promovând cadouri inexistente. Aceste videoclipuri prezintă adesea defecte minore, cum ar fi mișcările neregulate ale gurii, care pot alerta un spectator vigilent asupra falsității lor.

Cu toate acestea, având în vedere progresele rapide ale tehnologiei AI, recunoașterea acestor escrocherii necesită mai mult decât identificarea anomaliilor vizuale. Modelele de inteligență artificială, cum ar fi Motorul de voce OpenAI și noul instrument video Sora, au făcut din ce în ce mai dificilă diferențierea reală de fals fără un control atent.

Ripple Labs își sfătuiește comunitatea să mențină vigilență și să prioritizeze verificarea înainte de a răspunde la orice reclamații promoționale sau de a transfera fonduri. Acest ghid face parte din eforturile continue ale Ripple de a-și educa și proteja utilizatorii de potențialele amenințări cibernetice facilitate de utilizarea greșită a tehnologiilor emergente.

Citește și:

  • Michael Saylor avertizează deținătorii de Bitcoin cu privire la escrocherii false

  • Finanțe Magnate expuse ca înșelătorie de ieșire în mijlocul semnelor de avertizare

  • Înșelătoria criptografică afectează YouTube, ferește-te de Amazon Coin – AMZTR

  • Atenție la escrocherii cu otrăvire la adrese: Avertisment registru

  • CEO-ul Ripple dezvăluie creșterea înșelătoriilor Deepfake pe YouTube, protejează-ți fondurile

Postarea Ripple Labs avertizează asupra riscurilor crescute de înșelătorie alimentate de AI a apărut mai întâi pe Crypto News Land.