Według U.Today David Schwartz, dyrektor ds. technologii (CTO) w Ripple i jeden z twórców XRPL, niedawno skomentował wideo opublikowane przez Ripple. Film przedstawia dyrektora generalnego Ripple, Brada Garlinghouse'a, który stanowczo sprzeciwia się oszustom, którzy często podszywają się pod niego na różnych platformach mediów społecznościowych, przede wszystkim na X/Twitterze i YouTube.

Schwartz ironicznie skomentował wideo przeciwdziałające oszustwom, stwierdzając, że po raz pierwszy zobaczył je podczas spotkania na platformie Zoom. Odniósł się także do żartu Garlinghouse'a na końcu filmu o poprawieniu fryzury. Oglądając wideo po raz drugi, Schwartz wyraził rozczarowanie, nie podał jednak szczegółowo powodu swojego rozczarowania.

Na nagraniu Garlinghouse ostro krytykuje oszustów, którzy się pod niego podszywają, nazywając ich „żałosnymi kretynami” i twierdząc, że Ripple „walczy” z nimi. W filmie widać także osobę podszywającą się pod Garlinghouse'a, promującą typowe oszustwo kryptowalutowe, zachęcające użytkowników do wysyłania mu dowolnej kwoty XRP w zamian za podwójną kwotę. Prawdziwy Garlinghouse ubrany w garnitur informuje widzów, że nie ma żadnych prezentów XRP, z wyjątkiem oszustw.

Oszuści od wielu lat próbują nakłonić użytkowników kryptowalut do rozstania się z XRP. Jednak od około 2020 r. ich wysiłki stały się bardziej uporczywe, co skłoniło firmę Ripple do podjęcia przeciwko nim działań. Cztery lata temu Ripple skrytykował YouTube za zezwolenie na oszustwa związane z kryptowalutami z udziałem Ripple i fałszywych filmów przedstawiających jego dyrektora generalnego. Niedawno, wraz z pojawieniem się zaawansowanych narzędzi sztucznej inteligencji, oszuści zaczęli przeprowadzać bardziej wyrafinowane oszustwa związane z kryptowalutami.

Niedawno U.Today poinformowało, że pojawiły się realistycznie wyglądające fałszywe filmy Brada Garlinghouse'a i założyciela Cardano, Charlesa Hoskinsona, w których proszą społeczność o przesłanie im XRP i ADA, obiecując zwrócić podwójną kwotę w ramach rozdań. Hoskinson skomentował to, przewidując, że w ciągu najbliższych kilku lat takie filmy typu deepfake generowane przez sztuczną inteligencję będą nie do odróżnienia od prawdziwych.