De acordo com o Cointelegraph, pesquisadores da Universidade de Chicago criaram uma ferramenta chamada Nightshade que permite aos artistas ‘envenenar’ sua arte digital para evitar que desenvolvedores a utilizem para treinar sistemas de inteligência artificial (IA). A ferramenta altera as imagens de uma forma que contamina os conjuntos de dados utilizados para o treinamento de IA com informações incorretas, fazendo com que o sistema de IA interprete mal a imagem. Por exemplo, poderia fazer a IA acreditar que a imagem de um gato é na verdade um cachorro e vice-versa.

Como resultado, a capacidade da IA ​​de gerar resultados precisos e sensatos ficaria comprometida. Se um usuário solicitar uma imagem de um “gato” da IA ​​contaminada, ele poderá receber um cachorro rotulado como gato ou uma combinação de todos os “gatos” no conjunto de treinamento da IA, incluindo aqueles que são na verdade imagens de cães modificados por Beladona. Vitaly Shmatikov, professor da Universidade Cornell, afirmou que os investigadores “ainda não conhecem defesas robustas contra estes ataques”, o que implica que mesmo modelos fortes como o ChatGPT da OpenAI podem ser vulneráveis.

A equipe de pesquisa por trás do Nightshade, liderada por Ben Zhao, professor da Universidade de Chicago, expandiu seu software existente de proteção artística chamado Glaze. Em seus trabalhos anteriores, eles desenvolveram um método para os artistas ofuscarem ou “glazearem” o estilo de suas obras de arte. O Nightshade será eventualmente integrado ao Glaze, que atualmente está disponível gratuitamente na web ou para download.