Depois que as ferramentas anteriores falharam, a OpenAI lançou outro detector de IA focado em imagens e no risco crescente de deepfakes.
A OpenAI, pioneira no campo da inteligência artificial generativa, está assumindo o desafio de detectar imagens deepfake num momento em que o conteúdo enganoso é cada vez mais comum nas redes sociais. Mira Murati, diretora de tecnologia da empresa, revelou um novo detector deepfake na recente conferência WSJ Technology Live em Laguna Beach, Califórnia.
Murati disse que a nova ferramenta da OpenAI tem “99% de confiabilidade” para determinar se uma imagem foi gerada usando IA.
As imagens geradas por IA podem incluir tudo, desde criações alegres, como o Papa Francisco com um casaco Balenciaga fofo, até imagens enganosas que podem causar estragos financeiros. O potencial e as armadilhas da IA são claros. À medida que estas ferramentas se tornam mais sofisticadas, distinguir o conteúdo real do conteúdo gerado pela IA revela-se um desafio.
Embora a data de lançamento da ferramenta permaneça em segredo, seu lançamento gerou um interesse significativo, especialmente devido aos esforços anteriores da OpenAI.
Em janeiro de 2022, a empresa lançou um classificador de texto que, segundo ela, poderia distinguir a escrita humana do texto gerado por máquina de modelos como o ChatGPT. Mas em julho, a OpenAI desligou silenciosamente a ferramenta e emitiu uma atualização dizendo que sua taxa de erros era inaceitavelmente alta. Seu classificador rotulou incorretamente a escrita humana real como gerada por IA em 9% das vezes.
Se as afirmações de Murati forem verdadeiras, seria um momento importante para a indústria, uma vez que os métodos atuais de detecção de imagens geradas por IA muitas vezes não são automatizados. Normalmente, os hobbyistas confiam na intuição e concentram-se em desafios bem conhecidos que dificultam a IA generativa, como traçar mãos, dentes e padrões. A distinção entre imagens geradas por IA e imagens editadas por IA permanece confusa, especialmente quando se tenta usar IA para detectar IA.
A OpenAI não apenas trabalha para detectar imagens prejudiciais de IA, mas também estabelece barreiras sobre a censura de seus próprios modelos, mesmo além do que declara publicamente em suas diretrizes de conteúdo.
Como o Decrypt descobriu, a ferramenta Dall-E da OpenAI parece estar configurada para modificar prompts sem notificação e lançar erros silenciosamente quando solicitado a produzir resultados específicos, mesmo que cumpram as diretrizes publicadas, e evitar criar relacionados a nomes, estilos de artistas e raças específicos. .
Parte do prompt do Dall-E 3 no ChatGPT. Fonte: Descriptografar
Detectar deepfakes não é tarefa apenas da OpenAI. A DeepMedia é uma empresa que desenvolve essa capacidade, trabalhando exclusivamente com clientes governamentais.
Grandes empresas como Microsoft e Adobe também estão arregaçando as mangas. Eles lançaram o que chamam de sistema de “marca d'água de IA”. O mecanismo, impulsionado pela Content Provenance and Authenticity Alliance (C2PA), inclui um símbolo “cr” exclusivo dentro do balão de fala para indicar conteúdo gerado por IA. O símbolo pretende servir como um farol de transparência, permitindo aos usuários discernir a origem do conteúdo.
No entanto, como qualquer tecnologia, não é infalível. Existe uma vulnerabilidade que pode remover metadados que carregam este símbolo. Porém, como solução, a Adobe também lançou um serviço em nuvem capaz de recuperar metadados perdidos, garantindo assim a existência do símbolo. Também não é difícil de contornar.
À medida que os reguladores criminalizam cada vez mais os deepfakes, estas inovações não são apenas conquistas tecnológicas, mas também necessidades sociais. Iniciativas recentes da OpenAI e de empresas como a Microsoft e a Adobe sublinham o esforço coletivo para garantir a autenticidade na era digital. Embora estas ferramentas sejam atualizadas para proporcionar um maior grau de autenticidade, a sua implementação eficaz depende da adoção generalizada. Isto envolve não apenas os gigantes da tecnologia, mas também os criadores de conteúdos, as plataformas de redes sociais e os utilizadores finais.
Com o rápido desenvolvimento da inteligência artificial generativa, os detectores ainda têm dificuldade em distinguir a autenticidade de texto, imagens e áudio. Atualmente, o julgamento e a vigilância humanos são as nossas melhores linhas de defesa contra o uso indevido da IA. No entanto, os humanos não são infalíveis. Soluções duradouras exigirão que os líderes tecnológicos, os legisladores e o público trabalhem em conjunto para navegar neste novo e complexo território. #OpenAI #AI检测