#TrendingTopic #MANTA #Launchpool #XAI #tia
Дипфейки и криптомошенничество
Дипфейки, форма синтетических медиа, основанная на алгоритмах искусственного интеллекта, позволяют создавать убедительные фейковые видео и изображения, изображающие события или речь, которые на самом деле никогда не происходили. Как отмечает Сэйлор, видеоролики, в которых используется технология дипфейков, чтобы выдать себя за него и других криптовалютных личностей, распространились на YouTube и в социальных сетях. Эти видео призваны убедить зрителей отправить криптовалюту на указанный адрес под предлогом, что они получат взамен двойную сумму.
Изменение видео — распространенное мошенничество в мире криптовалют, причем крупные взломы социальных сетей в прошлом еще раз продемонстрировали потенциальную опасность этого метода. Даже такие базовые схемы, как использование ранее записанных подкастов для создания обманчивого вирусного контента, все чаще используются в качестве оружия для мошенничества, особенно на таких платформах, как YouTube. Там видеоролики с участием таких крупных криптовалютных деятелей, как Илон Маск, Брэд Гарлингхаус, Майкл Сэйлор и Виталик Бутерин, сфабрикованы так, чтобы напоминать потоки в реальном времени, заманивая зрителей в финансовые ловушки, подобные той, которую упомянул Сэйлор.
В то время как такие платформы, как YouTube, работают над удалением мошеннических видеороликов, созданных искусственным интеллектом, технология, используемая для создания обманного контента, продолжает совершенствоваться. Теперь глубокие фейки видео, генеративное видео, клонирование голоса ИИ и даже переводы ИИ в реальном времени возможны всего за несколько кликов.
Криптопреступники совершенствуются в создании убедительных фейковых видеороликов, а технология искусственного интеллекта быстро развивается, как никогда важно проверять, а не слепо доверять неожиданным онлайн-предложениям, связанным с криптовалютой. Как всегда, если что-то кажется слишком хорошим, чтобы быть правдой, возможно, так оно и есть.