#TrendingTopic #MANTA #Launchpool #XAI #tia

Deepfakes i oszustwa kryptograficzne

Deepfakes, forma syntetycznych mediów wykorzystujących algorytmy sztucznej inteligencji, umożliwia tworzenie przekonujących fałszywych filmów i obrazów przedstawiających wydarzenia lub przemówienia, które w rzeczywistości nigdy nie miały miejsca. Jak zauważa Saylor, filmy wykorzystujące technologię deepfake do podszywania się pod niego i inne osobistości kryptograficzne rozprzestrzeniają się w YouTube i na platformach mediów społecznościowych. Filmy te mają na celu przekonanie widzów do wysłania kryptowalut na podany adres pod pretekstem, że otrzymają w zamian podwójną kwotę.

Podmienianie wideo jest powszechnym oszustwem w świecie kryptowalut, a poważne włamania do mediów społecznościowych w przeszłości dodatkowo pokazały potencjalne zagrożenia związane z tą techniką. Nawet podstawowe schematy, takie jak te wykorzystujące wcześniej nagrane podcasty do tworzenia zwodniczych treści wirusowych, są coraz częściej wykorzystywane do dokonywania oszustw, zwłaszcza na platformach takich jak YouTube. Tam filmy przedstawiające główne osobistości związane z kryptowalutami, takie jak Elon Musk, Brad Garlinghouse, Michael Saylor i Vitalik Buterin, są sfabrykowane tak, aby przypominały transmisje w czasie rzeczywistym, wciągając widzów w pułapki finansowe, takie jak ta, o której wspomniał Saylor.

Chociaż platformy takie jak YouTube starają się usuwać fałszywe filmy generowane przez sztuczną inteligencję, technologia wykorzystywana do tworzenia zwodniczych treści stale się udoskonala. Teraz deepfake wideo, wideo generatywne, klonowanie głosu AI, a nawet tłumaczenia AI w czasie rzeczywistym są możliwe za pomocą zaledwie kilku kliknięć.

Ponieważ kryptoprzestępcy są coraz lepsi w tworzeniu przekonujących fałszywych filmów, a technologia sztucznej inteligencji szybko się rozwija, ważniejsza niż kiedykolwiek jest weryfikacja, a nie ślepe ufanie nieoczekiwanym ofertom związanym z kryptowalutami w Internecie. Jak zawsze, jeśli coś wydaje się zbyt piękne, aby mogło być prawdziwe, prawdopodobnie takie jest.