• Ripple Labs advierte contra estafas mejoradas con inteligencia artificial que se hacen pasar por ejecutivos.

  • Las tácticas de deepfake implican imitar voces y gestos para cometer fraude.

  • Se insta a la vigilancia al verificar las comunicaciones de Ripple a medida que los avances de la IA hacen que las estafas sean más difíciles de detectar.

Ripple Labs Inc., un importante participante en la industria de las criptomonedas, acaba de alertar a su comunidad de usuarios sobre la creciente tendencia a las estafas relacionadas con las actualizaciones. La empresa hizo hincapié en el problema de los tramposos que utilizan herramientas avanzadas de inteligencia artificial para producir patrocinios y obsequios falsificados que parecen auténticos.

El núcleo de esta advertencia de Ripple Labs se centra en el peligroso uso de la inteligencia artificial para imitar la apariencia y la voz de sus ejecutivos, incluido el director ejecutivo Brad Garlinghouse.

Las demostraciones proporcionadas por Ripple en la plataforma anteriormente conocida como Twitter mostraron cómo los estafadores podían clonar incluso gestos sutiles para engañar a los desprevenidos. Estos deepfakes a menudo atraen a las víctimas con promesas de obsequios lucrativos de XRP, afirmando que duplican sus tokens, con valores potenciales entre 500 y 1000 XRP.

ÚLTIMA HORA: @Ripple nunca te pedirá que nos envíes XRP. Nunca. Tampoco Brad, David, Monica, Stu ni nadie de Ripple. Aprenda cómo protegerse de las estafas: https://t.co/ikEFe4uf3r pic.twitter.com/No20jwLh9g

– Onda (@Ripple) 11 de abril de 2024

Ripple Labs enfatiza que tales ofertas son fraudulentas, ya que ni la empresa ni sus ejecutivos iniciarían tales obsequios. Las comunicaciones oficiales sobre ofertas y promociones legítimas solo llegan a través de canales verificados de Ripple.

IA avanzada y tácticas de suplantación

El problema ha sido persistente, y el propio Garlinghouse se dirigió a la comunidad sobre el aumento de videos deepfake que lo retratan falsamente promocionando obsequios inexistentes. Estos vídeos suelen mostrar defectos menores, como movimientos irregulares de la boca, que pueden alertar a un espectador atento de su falsedad.

Sin embargo, dados los rápidos avances en la tecnología de inteligencia artificial, reconocer estas estafas requiere más que detectar anomalías visuales. Los modelos de IA como el Voice Engine de OpenAI y la nueva herramienta de vídeo Sora han hecho que sea cada vez más difícil diferenciar lo real de lo falso sin un escrutinio minucioso.

Ripple Labs aconseja a su comunidad que mantenga la vigilancia y priorice la verificación antes de responder a cualquier reclamo promocional o transferir fondos. Esta guía es parte de los esfuerzos continuos de Ripple para educar y proteger a sus usuarios de posibles amenazas cibernéticas facilitadas por el uso indebido de tecnologías emergentes.

Lea también:

  • Michael Saylor advierte a los poseedores de Bitcoin sobre estafas profundamente falsas

  • Magnate Finance expuesto como estafa de salida en medio de señales de advertencia

  • La estafa criptográfica afecta a YouTube, tenga cuidado con Amazon Coin – AMZTR

  • Tenga cuidado con las estafas de envenenamiento de direcciones: advertencia en el libro mayor

  • El CEO de Ripple expone las crecientes estafas de deepfake en YouTube y proteja sus fondos

La publicación Ripple Labs advierte sobre mayores riesgos de estafas impulsadas por IA apareció por primera vez en Crypto News Land.