#TrendingTopic #MANTA #Launchpool #XAI #tia
Deepfakes y estafas criptográficas
Los deepfakes, una forma de medio sintético impulsado por algoritmos de inteligencia artificial, permiten la creación de videos e imágenes falsos convincentes que representan eventos o discursos que en realidad nunca ocurrieron. Como señala Saylor, en YouTube y en las plataformas de redes sociales han proliferado vídeos que utilizan tecnología deepfake para hacerse pasar por él y otras personalidades criptográficas. Estos videos tienen como objetivo convencer a los espectadores de que envíen criptomonedas a una dirección proporcionada con el pretexto de que recibirán el doble de la cantidad a cambio.
La alteración de videos es una estafa común en el mundo de las criptomonedas, y los principales ataques a las redes sociales en el pasado demuestran aún más los peligros potenciales de la técnica. Incluso los esquemas básicos, como los que utilizan podcasts previamente grabados para crear contenido viral engañoso, se utilizan cada vez más como arma para perpetrar estafas, especialmente en plataformas como YouTube. Allí, los videos que presentan a importantes personalidades criptográficas como Elon Musk, Brad Garlinghouse, Michael Saylor y Vitalik Buterin se fabrican para parecerse a transmisiones en tiempo real, atrayendo a los espectadores a trampas financieras, como la que mencionó Saylor.
Si bien plataformas como YouTube trabajan para eliminar videos fraudulentos generados por inteligencia artificial, la tecnología utilizada para crear contenido engañoso continúa mejorando. Ahora, los vídeos deepfakes, los vídeos generativos, la clonación de voz mediante IA e incluso las traducciones mediante IA en tiempo real son posibles con solo unos pocos clics.
Ahora que los criptodelincuentes están mejorando en la producción de videos falsos convincentes y la tecnología de inteligencia artificial avanza rápidamente, es más importante que nunca verificar en lugar de confiar ciegamente en ofertas inesperadas relacionadas con las criptomonedas en línea. Como siempre, si algo parece demasiado bueno para ser verdad, probablemente lo sea.