#TrendingTopic #MANTA #Launchpool #XAI #tia
Deepfakes a kryptografické podvody
Deepfakes, forma syntetických médií poháněná algoritmy AI, umožňuje vytvářet přesvědčivá falešná videa a snímky, které zobrazují události nebo řeč, které se ve skutečnosti nikdy nestaly. Jak poznamenává Saylor, na YouTube a na platformách sociálních médií se množila videa využívající technologii deepfake k předstírání jeho identity a dalších kryptografických osobností. Cílem těchto videí je přesvědčit diváky, aby posílali kryptoměny na zadanou adresu pod záminkou, že na oplátku obdrží dvojnásobnou částku.
Změna videa je v kryptosvětě běžným podvodem, přičemž hlavní hacky sociálních médií v minulosti dále demonstrovaly potenciální nebezpečí této techniky. Dokonce i základní schémata, jako jsou ta, která používají dříve nahrané podcasty k vytváření podvodného virového obsahu, jsou stále častěji využívány k páchání podvodů, zejména na platformách, jako je YouTube. Tam jsou videa s hlavními krypto osobnostmi jako Elon Musk, Brad Garlinghouse, Michael Saylor a Vitalik Buterin vyrobena tak, aby připomínala streamy v reálném čase a lákají diváky do finančních pastí, jako je ta, o které se Saylor zmínil.
Zatímco platformy jako YouTube pracují na odstraňování podvodných videí generovaných umělou inteligencí, technologie používaná k vytváření klamavého obsahu se neustále zlepšuje. Nyní jsou pomocí několika kliknutí možné hluboké fake videa, generativní video, klonování hlasu AI a dokonce i překlady AI v reálném čase.
Vzhledem k tomu, že se krypto zločinci zdokonalují ve výrobě přesvědčivých falešných videí a technologie AI se rychle rozvíjí, je důležitější než kdy jindy ověřovat, než slepě věřit neočekávaným online nabídkám souvisejícím s kryptoměnami. Jako vždy, pokud se něco zdá příliš dobré na to, aby to byla pravda, pravděpodobně to tak je.