De acordo com o Cointelegraph, Kang Li, diretor de segurança da empresa de segurança blockchain CertiK, alertou que ferramentas de inteligência artificial (IA), como o ChatGPT da OpenAI, poderiam criar mais problemas, bugs e vetores de ataque se usadas para escrever contratos inteligentes e construir projetos de criptomoeda. . Li explicou que o ChatGPT não pode detectar bugs de código lógico da mesma forma que os desenvolvedores experientes podem, e pode criar mais bugs do que identifica, o que pode ser desastroso para programadores iniciantes ou amadores que desejam construir seus próprios projetos.

Li acredita que o ChatGPT deve ser usado como assistente do engenheiro porque é melhor para explicar o que uma linha de código realmente significa. Ele enfatizou que não deveria ser usado para escrever código, especialmente por programadores inexperientes que buscam construir algo monetizável. Li disse que apoiará suas afirmações pelo menos nos próximos dois a três anos, pois reconheceu que os rápidos desenvolvimentos na IA podem melhorar enormemente as capacidades do ChatGPT.

Em notícias relacionadas, Richard Ma, cofundador e CEO da empresa de segurança Web3 Quantstamp, disse ao Cointelegraph que as ferramentas de IA estão se tornando mais bem-sucedidas em ataques de engenharia social, sendo muitas delas idênticas às tentativas humanas. Ma disse que os clientes da Quantstamp estão relatando uma quantidade alarmante de tentativas cada vez mais sofisticadas de engenharia social e acredita que estamos nos aproximando de um ponto em que não saberemos se as mensagens maliciosas são geradas por IA ou por humanos. Ma disse que está chegando ao mercado um software antiphishing melhor que pode ajudar as empresas a mitigar possíveis ataques.