Imagens geradas por IA podem induzir você a perceber o conteúdo falso como original. É por isso que a OpenAI, desenvolvedora do ChatGPT, criou uma ferramenta que pode determinar se uma imagem resulta do DALL-E 3, o único algoritmo de geração de imagens que eles desenvolveram.

Na terça-feira, a OpenAI deu aos usuários a primeira chance de testar uma ferramenta de detecção de imagem que consiste em modelos básicos e ajustados. O objetivo é envolver pesquisadores com desempenho próprio para examinar a apreensão, a utilidade, as formas como ela poderia ser aplicada e os fatores que podem causar o conteúdo gerado por IA.

Taxa de sucesso e testes da ferramenta

A OpenAI testou a ferramenta internamente e, em alguns aspectos, foi encorajadora, mas por outro lado, foi muito decepcionante. A avaliação das imagens produzidas pelo DALL-E 3 rendeu 98% delas corretamente. Além disso, ao analisar imagens não feitas pelo DALL-E 3, o sistema as atribuiria erroneamente ao DALL-E 3 apenas 0,5% das vezes. 

A OpenAI não encontrou a modificação de uma imagem com diferença ligeiramente significativa. A equipe interna testou a ferramenta compactando, recortando e introduzindo alterações de saturação na imagem criada pelo DALL-E 3 e observou que a ferramenta ainda conseguiu atingir um bom nível de sucesso. 

Desafios e limitações

Infelizmente, a ferramenta não foi muito eficaz com imagens que foram processadas extensivamente. O texto deste artigo da OpenAI não deixa claro quantas modificações eles fizeram nos casos que descrevem e dizem que “outras modificações podem reduzir o desempenho”. 

Em entrevista ao The Wall Street Journal, Sandhini Agarwal, pesquisadora, disse que a ferramenta foi menos eficaz em situações como alteração da tonalidade da imagem e que é necessária assinatura. Como Agarwal mencionou, para lidar com esses tipos de problemas, a OpenAI trará testadores externos para o sistema. 

Além disso, os testes internos também questionaram a capacidade da ferramenta de analisar as imagens feitas com modelos de IA de outras empresas. Nessas situações, a ferramenta da OpenAI poderia reconhecer apenas 5% ou 10% das imagens em relação a modelos diferentes dela. Tais modificações em tais imagens, como mudanças de matiz, também diminuíram significativamente a eficiência, disse Agarwal ao Journal.

As imagens feitas por IA não são apenas artificiais, mas também representam problemas neste ano eleitoral. Grupos lesados, tanto dentro como fora de um país, podem facilmente utilizar tais fotos para manchar um aspirante a político ou um caso defendido. Hoje em dia, à medida que os geradores de imagens de IA continuam a desenvolver-se, a linha entre a realidade e a fantasia é mais difícil do que nunca de distinguir. 

Adoção da indústria

Por outro lado, a OpenAI procura adicionar marcas d'água aos metadados de imagens de IA à medida que as empresas se tornam membros da User Value Organization (UVG). O C2PA pertence a uma iniciativa da indústria tecnológica que vem com padrões técnicos para revelar a origem do conteúdo e sua autenticidade no processo conhecido como marca d'água.  A gigante do Facebook Meta disse no início deste mês que sua IA será rotulada como tal pelo padrão C2PA a partir de maio deste ano.