Secondo U.Today, David Schwartz, Chief Technology Officer (CTO) di Ripple e uno dei creatori di XRPL, ha recentemente commentato un video pubblicato da Ripple. Il video mostra il CEO di Ripple, Brad Garlinghouse, che prende una forte posizione contro i truffatori che spesso si spacciano per lui su varie piattaforme di social media, principalmente su X/Twitter e YouTube.

Schwartz ha fatto un commento ironico sul video anti-truffa, affermando di averlo visto per la prima volta durante una riunione su Zoom. Ha anche fatto riferimento a una battuta fatta da Garlinghouse alla fine del video su come sistemarsi i capelli. Schwartz ha espresso disappunto quando ha guardato il video per la seconda volta, anche se non ha spiegato il motivo della sua delusione.

Nel video, Garlinghouse critica aspramente i truffatori che si spacciano per lui, definendoli "patetici delinquenti" e affermando che Ripple sta "reagendo" contro di loro. Nel video compare anche una persona che si spaccia per Garlinghouse, promuovendo una tipica truffa crittografica incoraggiando gli utenti a inviargli qualsiasi importo di XRP in cambio del doppio dell'importo. Il vero Garlinghouse, vestito con un abito, informa gli spettatori che non ci sono omaggi XRP, tranne le truffe.

Da molti anni i truffatori tentano di indurre gli utenti di criptovalute a separarsi dal loro XRP. Tuttavia, a partire dal 2020 circa, i loro sforzi sono diventati più persistenti, spingendo Ripple ad agire contro di loro. Quattro anni fa, Ripple ha criticato YouTube per aver consentito truffe crittografiche con video deepfake e deepfake del suo CEO. Recentemente, con l'avvento di strumenti avanzati di intelligenza artificiale, i truffatori hanno iniziato a condurre truffe di criptovaluta più sofisticate.

U.Today ha recentemente riferito che sono emersi video falsi dall'aspetto realistico di Brad Garlinghouse e del fondatore di Cardano Charles Hoskinson, in cui chiedono alla comunità di inviare loro XRP e ADA, promettendo di restituire il doppio dell'importo come parte di omaggi. Hoskinson ha commentato questo, prevedendo che nei prossimi anni tali video deepfake generati dall'intelligenza artificiale saranno indistinguibili da quelli reali.