Potrivit U.Today, David Schwartz, Chief Technology Officer (CTO) al Ripple și unul dintre creatorii XRPL, a comentat recent un videoclip publicat de Ripple. Videoclipul îl prezintă pe CEO-ul Ripple, Brad Garlinghouse, luând o poziție fermă împotriva escrocilor care îl uzurpă frecvent pe diverse platforme de socializare, în principal pe X/Twitter și YouTube.

Schwartz a făcut un comentariu ironic asupra videoclipului anti-escrocherie, declarând că l-a văzut pentru prima dată în timpul unei întâlniri Zoom. El s-a referit și la o glumă făcută de Garlinghouse la sfârșitul videoclipului despre a-și îndrepta părul. Schwartz și-a exprimat dezamăgirea când a vizionat videoclipul pentru a doua oară, deși nu a explicat motivul dezamăgirii sale.

În videoclip, Garlinghouse îi critică aspru pe escrocii care îl uzurpă pe el, numindu-i „bănuiți patetici” și afirmând că Ripple „luptează” împotriva lor. Videoclipul prezintă, de asemenea, o persoană care se uită la Garlinghouse, promovând o înșelătorie cripto tipică, încurajând utilizatorii să-i trimită orice sumă de XRP în schimbul unei sume duble. Adevăratul Garlinghouse, îmbrăcat într-un costum, informează telespectatorii că nu există cadouri XRP, cu excepția înșelătoriilor.

Escrocii au încercat să-i păcălească pe utilizatorii de criptomonede să se despartă de XRP-ul lor de mulți ani. Cu toate acestea, eforturile lor au devenit mai persistente din jurul anului 2020, ceea ce a determinat Ripple să ia măsuri împotriva lor. În urmă cu patru ani, Ripple a criticat YouTube pentru că permite înșelătoriile cripto cu Ripple și videoclipuri deepfake ale CEO-ului său. Recent, odată cu apariția instrumentelor avansate de inteligență artificială, escrocii au început să efectueze escrocherii cu criptomonede mai sofisticate.

U.Today a raportat recent că au apărut videoclipuri false cu aspect realist ale lui Brad Garlinghouse și fondatorul Cardano, Charles Hoskinson, în care cer comunității să le trimită XRP și ADA, promițând să returneze dublul sumei ca parte a cadourilor. Hoskinson a comentat acest lucru, prezicând că în următorii câțiva ani, astfel de videoclipuri deepfake generate de AI nu vor fi distinse de cele reale.