Uma empresa não identificada em Hangzhou, China, foi recentemente vítima de um ataque de ransomware perpetrado usando o ChatGPT, levando às primeiras prisões no país envolvendo o chatbot de IA.
As autoridades chinesas revelaram que quatro criminosos cibernéticos foram detidos no final do mês passado – dois em Pequim e dois na Mongólia Interior. Os suspeitos confessaram utilizar o ChatGPT para otimizar o código de ransomware, conduzir varreduras de rede, infiltrar sistemas, implantar malware e extorquir fundos.
O ataque em si viu as redes da empresa bloqueadas por ransomware, com os criminosos exigindo um pagamento de 20.000 criptomoedas Tether para restaurar o acesso.
Uso de ransomware em ascensão
O ransomware se tornou rapidamente uma das ameaças cibernéticas mais severas enfrentadas por governos, empresas e indivíduos em todo o mundo. O software malicioso criptografa arquivos e sistemas, tornando-os inacessíveis até que uma demanda de resgate seja atendida.
Os danos causados por ransomware ultrapassaram a estimativa de US$ 20 bilhões globalmente em 2021. Os ataques aumentaram 13% naquele ano somente na China, onde os cibercriminosos roubaram mais de US$ 1,6 bilhão em pagamentos extorquidos.
As prisões marcam a primeira vez que o ChatGPT foi implicado em um caso de ransomware chinês. No entanto, o chatbot em si provavelmente não participou diretamente do ataque.
Em vez disso, o acusado admitiu usar os recursos de linguagem natural do ChatGPT para otimizar seu código de malware. A natureza conversacional da IA torna simples refinar programas de ransomware, fornecendo feedback e sugestões.
Acesso ao ChatGPT limitado na China
Embora imensamente popular no mundo todo, o ChatGPT enfrenta restrições na China. A OpenAI, sua desenvolvedora, bloqueou endereços IP da China continental de acessar o chatbot.
Alguns usuários contornam as limitações usando VPNs registradas fora da China. No entanto, os riscos legais para empresas que fornecem tais serviços não são claros.
Autoridades alertaram que o ChatGPT poderia potencialmente “cometer crimes e espalhar rumores” se o acesso se tornasse generalizado. Mas o interesse na IA continua alto, com empresas de tecnologia correndo para desenvolver rivais para o produto inovador da OpenAI.
A IA generativa também permite deepfakes convincentes, que a polícia chinesa confrontou neste verão em uma repressão a golpes de empréstimos. Com os perigos da tecnologia evidentes, reguladores globalmente estão avaliando a melhor forma de responder.
Preocupações em torno de malware escrito por IA
O ChatGPT ganhou fama por seu tom de conversação e respostas eloquentes e humanas na maioria dos tópicos. Mas suas habilidades avançadas de linguagem também o tornam perigosamente eficaz para usos maliciosos, como otimizar malware.
Pesquisadores de segurança cibernética expuseram o quão direto era para o ChatGPT gerar páginas falsas de phishing, códigos de computador maliciosos e outras ameaças. Com prompts simples, a IA produz ransomware sofisticado, feito sob medida para evitar a detecção.
E chatbots como o ChatGPT nunca esquecem o que aprenderam. O conhecimento acumulado aprimora ainda mais suas habilidades em codificar malware, hackear sistemas e enganar alvos.
A natureza generativa da IA apresenta riscos mais amplos
Além das vulnerabilidades de software, os chatbots de IA também criam riscos em torno de desinformação. Sua escrita convincente, semelhante à humana, pode inundar redes sociais e sites com material falso que parece confiável.
A IA generativa também permite a criação de mídia de áudio/vídeo deepfake e vozes clonadas para fins de fraude. Golpes de personificação e mídia falsa de celebridades representam grandes ameaças à medida que a tecnologia avança.
Além disso, questões legais e éticas persistem em torno de conjuntos de dados de treinamento de IA e propriedade. Sistemas como o ChatGPT ingerem vastos tesouros de livros, artigos, músicas, imagens e outros conteúdos protegidos por direitos autorais sem consentimento.
À medida que as capacidades da IA generativa crescem exponencialmente, seu potencial de dano nas mãos erradas também continua aumentando. Mas regulamentação cuidadosa e vigilância da segurança cibernética podem ajudar a mitigar ameaças emergentes