A onda de popularidade da IA ​​varreu tanto aqueles que têm boas intenções como aqueles com intenções que podem ser mais sinistras. Os especialistas em segurança estão a dar o alarme, salientando que a utilização de tais modelos, a geração de textos maliciosos, ou “hackbots”, é agora famosa entre os agentes de ameaças. Atingiu o nível de um serviço pronto para uso em serviços baseados em assinatura.

Cibercriminosos aproveitando ferramentas de IA

Por um lado, os especialistas em segurança cibernética perceberam rapidamente o potencial das ferramentas habilitadas para IA para proteger melhor os seus sistemas. Os agentes de ameaças também demonstraram uma vontade igual de utilizar estas tecnologias para tirar partido das lacunas de segurança deixadas por aqueles que atacam. Nos últimos anos, tem havido um aumento exponencial no número de aplicações de IA utilizadas por agentes mal-intencionados, o que chamou a atenção das equipas de segurança para uma abordagem suficiente para eliminar as ameaças relacionadas com a IA.

Por outro lado, especialistas britânicos em segurança cibernética também indicaram a IA como um novo risco emergente que envolve águas desconhecidas e sua natureza em constante mudança. O NCSC prevê que 2024, o primeiro trimestre, será o maior e superará com sucesso os recordes de 2022 e 2023. Os criminosos inteligentes também usaram modelos de linguagem para engenharia social, que exigiam que celebridades fossem colocadas em um ambiente de vídeo ou áudio usando esquemas de phishing ou dispositivos de reconhecimento de voz. Vascut Jakkal, vice-presidente de segurança da Microsoft Corporation, participou da RSA Conference 2024. O problema não é a deterioração dessas ferramentas, mas sua crescente disponibilidade para quebra de senhas, que está 10 vezes mais ligada ao crescimento de ataques relacionados à identidade.

Alguns especialistas concluíram ainda que os chatbots usam uma frase única para desenvolver malware ativamente. De fato, serviços disponíveis publicamente, como ChatGPT e Gemini, implementaram salvaguardas para evitar seu uso indevido para fins maliciosos. No entanto, os hackers contornaram muitas proteções por meio de técnicas de engenharia sofisticadas e rápidas.

Hackbot-as-a-service: A tendência crescente do crime cibernético

De acordo com estudos recentes, modelos de linguagem publicamente visíveis geralmente falham em abusar de fraquezas de segurança de software. No entanto, apenas o GPT-4 da OpenAI mostrou recursos promissores, pois poderia produzir executáveis ​​para falhas conhecidas. As restrições acima parecem ter provavelmente fomentado a produção de chatbots maliciosos prototípicos projetados para auxiliar perpetradores de crimes cibernéticos a realizar suas atividades maliciosas.

Eles estão sendo anunciados nos fóruns e mercados da dark web, que oferecem o poder de contratar e explorar os invasores, alimentando um modelo de hackbot-as-a-service. Uma das postagens de blog recentes publicadas pela equipe do Trustwave SpiderLabs em agosto de 2023 ilustra o aumento do volume de modelos de linguagem maliciosa hospedados em vários painéis de mensagens ocultos da web para lucro.

A Trustwave publicou o modelo WormGPT em junho de 2021, um dos modelos de linguagem maliciosa conhecidos desses hackers. Essa abordagem pode ocorrer em equipamentos onde bots injetam ataques cibernéticos por estruturas de hacking hospedadas na dark web. Gerado em julho de 2023, o FraudGPT foi descoberto pela primeira vez por pesquisadores de ameaças da Netenrich antes de chegar ao Telegram.

Essas ferramentas permitem que os invasores projetem ativos usados ​​em ataques de engenharia social, como e-mails de phishing, deepfakes e clonagem de voz. No entanto, seus criadores alegam que seu valor real está na exploração de vulnerabilidades. Elas permitem que os hackers alimentem códigos sobre vulnerabilidades específicas nesses modelos maliciosos, o que poderia teoricamente produzir vários exploits de prova de conceito (PoC) para um invasor tentar.

Esses produtos são vendidos nos mercados secretos da dark web, onde os hackers pagam uma taxa de licença mensal para usar o hackbot, assim como o ransomware é entregue no modelo ransomware-as-a-service (raas), que está diretamente conectado a um complexo de ransomware que muitas empresas enfrentam hoje.

Embora o WormGPT seja o primeiro modelo de linguagem maliciosa em larga escala introduzido, outros modelos de linguagem maliciosos e antiéticos, como BlackHatGPT, XXXGPT e WolfGPT, logo o seguiram, formando um novo segmento de mercado do mercado negro cibernético.

A eficácia dos hackbots: exagero ou ameaça real?

Em contraste com a pesquisa feita pela Trustwave, que foi feita para testar a eficiência das ferramentas recomendadas comparando suas saídas uma ao lado da outra versus aquelas geradas por chatbots legítimos, as descobertas indicaram que o ChatGPT poderia ser efetivamente feito para criar algum malware Python com os prompts certos. Para fazer isso, a mensagem teve que ser enviada para o assunto alegando que o código era white hat antes da implantação, e a saída do código também precisava de modificações adicionais.

O ChatGPT pode ser capaz de passar mensagens de texto reais para ataques de phishing, mas o comando de instrução deve ser muito específico para esse efeito. O ChatGPT geralmente será baseado nisso apenas quando os usuários solicitarem algo errado. Devido a esse fato, esses chatbots podem ser vistos como um método mais simples para criminosos cibernéticos ou IA atacarem os chatters em vez de trabalhar tediosamente para criar uma página ou malware.

Embora essa indústria seja nova e as ameaças ainda estejam em fluxo, as empresas devem estar realmente cientes de seus níveis atuais de proteção. O conteúdo e as características culturais com os quais os sistemas de IA são inundados podem ser abusados ​​para criar uma lacuna de desinformação que só pode ser preenchida pela criação de programas de segurança de IA e ferramentas de gerenciamento de identidade mais fortes.

A legitimidade das soluções para o problema crescente ainda está sendo debatida. No entanto, cepas recentes de ransomware mostraram que os cibercriminosos podem igualar, se não exceder, a velocidade de desenvolvimento dos desenvolvedores de software.