De acordo com a Cointelegraph, golpes de deepfake com tecnologia de IA estão se tornando cada vez mais prevalentes, com empresas de segurança alertando que esse método de ataque pode se estender além de vídeos e áudio. Em 4 de setembro, a empresa de software Gen Digital relatou que atores maliciosos usando golpes de deepfake com tecnologia de IA para fraudar detentores de criptomoedas aumentaram as operações no segundo trimestre de 2024. A empresa revelou que um grupo de golpistas chamado 'CryptoCore' já havia fraudado mais de US$ 5 milhões em criptomoedas usando deepfakes de IA.

Embora o valor possa parecer baixo em comparação a outros ataques no espaço criptográfico, os profissionais de segurança acreditam que os ataques deepfake de IA podem se expandir ainda mais, ameaçando a segurança dos ativos digitais. A empresa de segurança Web3 CertiK acredita que os golpes deepfake com tecnologia de IA se tornarão mais sofisticados. Um porta-voz da CertiK explicou que o vetor de ataque pode ser usado para enganar carteiras que usam reconhecimento facial, dando acesso aos hackers. O porta-voz enfatizou a importância de avaliar a robustez das soluções de reconhecimento facial contra ameaças baseadas em IA e aumentar a conscientização dentro da comunidade criptográfica sobre como esses ataques funcionam.

Luis Corrons, um evangelista de segurança da empresa de segurança cibernética Norton, acredita que os ataques com tecnologia de IA continuarão a ter como alvo os detentores de criptomoedas devido às recompensas financeiras significativas e aos riscos menores para os hackers. Corrons observou que as transações de criptomoedas geralmente têm alto valor e podem ser conduzidas anonimamente, tornando-as um alvo atraente para os cibercriminosos. Ele também destacou que a falta de regulamentações no espaço criptográfico fornece aos cibercriminosos menos consequências legais e mais oportunidades de ataque.

Profissionais de segurança acreditam que há maneiras de os usuários se protegerem de ataques deepfake com tecnologia de IA. De acordo com a CertiK, a educação é um bom lugar para começar. Um engenheiro da CertiK explicou a importância de conhecer as ameaças e as ferramentas e serviços disponíveis para combatê-las. Ter cuidado com solicitações não solicitadas e habilitar a autenticação multifator para contas confidenciais pode adicionar uma camada extra de proteção contra esses golpes. Corrons também sugeriu procurar por "sinais de alerta", como movimentos oculares não naturais, expressões faciais, movimentos corporais, falta de emoção, metamorfose facial, costuras de imagem, formas corporais estranhas, desalinhamentos e inconsistências no áudio para determinar se estão olhando para um deepfake de IA.