A IA pode ser uma ferramenta útil para os criminosos no ecossistema das criptomoedas, e compreender as novas tendências criminais é fundamental para proteger a indústria.

Com o rápido desenvolvimento da inteligência artificial (IA), tem havido muitas inovações que trouxeram grandes benefícios em muitas indústrias, especialmente no sector das criptomoedas. No entanto, como qualquer nova tecnologia, a IA também corre o risco de ser utilizada para fins maliciosos. De acordo com um relatório conduzido pela Elliptic, a organização identificou cinco tipos de crimes emergentes no ecossistema de criptomoedas alimentado por IA.

IA cria golpes deepfake em criptomoedas

A IA está sendo usada para criar golpes de criptomoeda. Especificamente, vídeos deepfake representando celebridades ou líderes empresariais estão promovendo projetos de investimento em criptomoedas, criando a impressão de que o projeto tem apoio oficial. Por exemplo, vídeos representando o CEO da Ripple, Brad Garlinghouse, parecem enganar os usuários para que participem de golpes de distribuição de criptomoedas.

Esses golpes geralmente usam imagens, vídeos e vozes gerados por IA para fazer com que os sites fraudulentos pareçam mais convincentes. Um exemplo típico é o ataque ao Twitter em julho de 2020, quando as contas de muitas celebridades foram hackeadas para publicar links fraudulentos que distribuíam Bitcoin. Em muitos casos, os golpistas também usam contas de administrador nos canais Discord de projetos de criptomoeda para postar links fraudulentos, roubando criptomoedas ou tokens não fungíveis (NFTs).

Criação de tokens de IA fraudulentos ou esquemas de manipulação de mercado

Um grande número de tokens fraudulentos foi criado com palavras-chave relacionadas à IA, como “GPT”, “CryptoGPT” e “GPT Coin”. Esses tokens são frequentemente promovidos em fóruns de negociação amadores, criando uma excitação falsa e, em última análise, fraudando os usuários ao vender os tokens e desaparecer com os lucros. Esses golpes incluem “golpes de saída” e “pump and dump” (manipulação de mercado).

De acordo com o relatório da Elliptic, em muitos blockchains, criar um token é muito fácil, e os golpistas aproveitaram isso para criar tokens relacionados à IA para criar excitação falsa. Esses tokens são frequentemente promovidos em fóruns de negociação amadores, onde os golpistas reivindicam afiliação oficial com empresas legítimas de IA, como ChatGPT ou outras empresas de IA. Esses golpes vão além da criação de tokens e incluem plataformas de investimento falsas, bots de negociação de IA falsos e golpes de saída.

Um excelente exemplo é o golpe do bot de negociação de IA “iEarn” de US$ 6 milhões, no qual os golpistas criaram uma plataforma de negociação de IA falsa e depois desapareceram com os fundos investidos da vítima. Esses golpistas geralmente reaparecem sob diferentes nomes e sites, continuando a enganar novas vítimas. Outro exemplo proeminente é o Mirror Trading International (MTI), um esquema Ponzi que arrecadou mais de US$ 1,7 bilhão em criptomoedas de vítimas em todo o mundo.

Usando modelos de grandes linguagens para realizar ataques cibernéticos

Ferramentas de IA como o ChatGPT têm a capacidade de testar e detectar vulnerabilidades no código, que podem, portanto, ser exploradas por hackers para encontrar e atacar contratos inteligentes de protocolos de finanças descentralizadas (DeFi). Algumas ferramentas de IA “antiéticas” foram promovidas em fóruns da dark web com a capacidade de automatizar e-mails de phishing, escrever códigos maliciosos e encontrar vulnerabilidades.

Por exemplo, os hackers podem usar IA para examinar o código-fonte aberto de muitos protocolos DeFi em um curto período de tempo para encontrar vulnerabilidades de segurança. Uma série de ferramentas de IA “antiéticas”, como WormGPT, DarkBard, FraudGPT e HackerGPT, foram promovidas em fóruns da dark web com a capacidade de automatizar atividades de crimes cibernéticos, como enviar e-mails de phishing, escrever códigos maliciosos e encontrar falhas de segurança. Essas ferramentas normalmente são vendidas entre US$ 70 e US$ 1.700.

Um exemplo específico é o WormGPT, uma ferramenta de IA projetada para gerar e-mails de phishing, malware e encontrar vulnerabilidades de segurança. O WormGPT é promovido em fóruns da dark web com a capacidade de automatizar atividades de crimes cibernéticos, incluindo o envio de e-mails de phishing e a escrita de códigos maliciosos. Um dos clientes do WormGPT o usou para falsificar bancos e coletar códigos OTP das vítimas.

Implantação de fraudes e desinformação de criptomoedas em grande escala

A IA pode criar e espalhar sites de phishing de forma rápida e fácil. Serviços como o NovaDrainer, que oferece sites fraudulentos para afiliados e participação nos lucros, receberam mais de 2.400 tipos de tokens de mais de 10.000 carteiras diferentes, provavelmente de vítimas de golpes. Além disso, a IA também é usada para gerar postagens automaticamente nas redes sociais, ajudando a espalhar informações falsas sobre projetos de criptomoedas.

Um exemplo específico é o serviço NovaDrainer, plataforma que oferece fraude como serviço a afiliados e compartilha lucros. NovaDrainer afirma usar IA para processar transações e criar novos designs de sites, otimizados para SEO e meta tags. O serviço recebeu mais de 2.400 tokens de mais de 10.000 carteiras diferentes, provavelmente de vítimas de golpes.

Além disso, os bots de mídia social também são usados ​​para espalhar informações erradas sobre projetos de criptomoeda. Um bom exemplo é a rede de bots FOX8, uma rede de bots do Twitter que usava ChatGPT para gerar postagens e respostas automatizadas. Esta rede de bots inclui mais de 1.100 contas e espalhou desinformação sobre criptomoedas, com a hashtag#cryptoaparecendo mais de 3.000 vezes em suas postagens.

Expandindo o mercado ilegal

Nos mercados da dark web, surgiram serviços de IA que criam imagens falsas de nudez de celebridades e fornecem ferramentas de IA para criar essas imagens a baixo custo. Serviços de geração de documentos falsos, como “OnlyFake Document Generator”, usam IA para criar documentos de identificação falsos para contornar as verificações KYC em bolsas de criptomoedas. Além disso, ferramentas de IA também são usadas para filtrar e analisar dados roubados em ataques cibernéticos.

Um excelente exemplo é OnlyFake Document Generator, um serviço de criação de documentos falsos que usa IA para criar documentos de identificação falsos para passar em verificações KYC em bolsas de criptomoedas. Este serviço oferece pacotes de serviços que variam de 15 USD (criar um documento falso) a 1.500 USD (criar 1.000 documentos falsos). Em apenas um mês, o serviço vendeu licenças suficientes para criar aproximadamente 4.935 documentos falsos.

Serviços que criam imagens falsas de celebridades nuas também apareceram nos mercados da dark web. Um exemplo é um serviço de IA que criou imagens falsas de nudez de pelo menos 13 celebridades da indústria do entretenimento de Hong Kong, que foram vendidas por US$ 2. Além disso, outros serviços de IA também oferecem a capacidade de criar imagens de nudez a partir de imagens enviadas por usuários a um custo baixo, geralmente inferior a 1 dólar por imagem.

Consequências e medidas preventivas 

A combinação de IA e atividades ilegais na dark web representa um grande desafio para as agências responsáveis ​​pela aplicação da lei e para os especialistas em segurança cibernética. Detectar e prevenir estas atividades requer um conhecimento profundo da tecnologia de IA e dos novos métodos criminosos.

Para lidar com ameaças criminosas alimentadas por IA no ecossistema das criptomoedas, é necessário estabelecer medidas preventivas abrangentes. Uma dessas abordagens é DECODE, que inclui os seguintes elementos:

1. Detecção: Uso da tecnologia de IA para detectar precocemente atividades incomuns e sinais de fraude. Os sistemas de monitoramento automatizados podem verificar transações e atividades na blockchain em busca de padrões de comportamento suspeitos.

2. Educação: Aumentar a conscientização e educar os usuários e partes interessadas sobre os riscos associados aos crimes de IA em criptomoedas. Devem ser implementadas campanhas de comunicação e formação para ajudar os utilizadores a reconhecer os sinais de fraude e a tomar medidas de proteção pessoal.

3. Colaboração: Promover a cooperação entre agências de aplicação da lei, empresas de tecnologia e instituições financeiras para partilhar informações e coordenar a resposta a crimes de IA. A cooperação internacional também é importante para lidar com ameaças transnacionais.

4. Supervisão: Estabelecer mecanismos de monitorização e regulação para garantir que as empresas e organizações cumpram as normas de segurança e prevenção do crime. Os reguladores devem atualizar regularmente os regulamentos para refletir as novas tendências criminais.

5. Defesa: Aplique medidas de segurança avançadas, incluindo criptografia, autenticação de dois fatores e outras soluções de segurança para proteger os sistemas contra ataques. Estas medidas precisam ser continuamente atualizadas para lidar com novas ameaças.

6. Avaliação: Realizar auditorias e avaliações regulares das medidas de prevenção do crime e dos sistemas de segurança para garantir a eficácia. Estas avaliações devem incluir testes de sistemas contra ataques simulados para detectar e remediar pontos fracos.

Concluir

A IA está abrindo novas oportunidades tanto para benefícios quanto para riscos no ecossistema de criptomoedas. Compreender e gerir os riscos envolvidos é fundamental para proteger os utilizadores e manter a segurança cibernética. Esforços coordenados e medidas de prevenção eficazes ajudarão a minimizar o impacto destas atividades criminosas e a proteger o desenvolvimento sustentável da tecnologia de IA e das criptomoedas.

O relatório da Elliptic não só fornece informações sobre as tendências da criminalidade relacionadas com a IA, mas também recomenda estratégias específicas para lidar com estes desafios. A investigação contínua e a sensibilização para potenciais ameaças são um passo importante para garantir um ambiente digital seguro e fiável.

À medida que a tecnologia continua a avançar, será um desafio manter um equilíbrio entre inovação e segurança. As partes interessadas nos setores de criptomoedas e TI precisam trabalhar em estreita colaboração para desenvolver soluções de segurança de ponta, ao mesmo tempo que aumentam a conscientização e as habilidades para lidar com novas ameaças. O desenvolvimento sustentável e seguro da tecnologia de IA e das criptomoedas depende não apenas de medidas técnicas, mas também da cooperação global e do compromisso de todas as partes interessadas.