Les images générées par l’IA peuvent vous tromper en vous faisant croire qu’un faux contenu est original. C'est pourquoi OpenAI, le développeur de ChatGPT, a créé un outil capable de déterminer si une image résulte de DALL-E 3, le seul algorithme de génération d'images qu'ils ont développé.

Mardi, OpenAI a donné aux utilisateurs la première chance de tester un outil de détection d'images composé de modèles de base et optimisés. L’objectif est d’engager des chercheurs auto-performants pour examiner l’appréhension, l’utilité, les manières dont elle pourrait être appliquée et les facteurs susceptibles de générer du contenu généré par l’IA.

Taux de réussite et tests de l’outil

OpenAI a testé l'outil en interne et, à certains égards, il a été encourageant, mais d'un autre côté, il a été très décevant. L'évaluation des images produites par DALL-E 3 en a rendu correctement 98 %. De plus, lors de l'analyse d'images non réalisées par DALL-E 3, le système les attribuerait par erreur à DALL-E 3 seulement 0,5 % du temps. 

OpenAI n'a pas trouvé la modification d'une image avec une différence légèrement significative. L'équipe interne a testé l'outil en compressant, recadrant et introduisant des changements de saturation à l'image créée par DALL-E 3 et a observé que l'outil était toujours capable d'atteindre un bon niveau de réussite. 

Défis et limites

Malheureusement, l’outil n’était pas très efficace avec des images qui avaient été traitées de manière approfondie. Le libellé de cet article d’OpenAI n’est pas clair sur le nombre de modifications apportées dans les cas qu’ils décrivent, et ils disent que « d’autres modifications peuvent réduire les performances ». 

Dans une interview accordée au Wall Street Journal, Sandhini Agarwal, une chercheuse, a déclaré que l'outil était moins efficace dans des situations telles que le changement de teinte de l'image et qu'un abonnement était requis. Comme Agarwal l'a mentionné, afin de résoudre ce type de problèmes, OpenAI fera appel à des testeurs externes du système. 

De plus, les tests internes ont également remis en question la capacité de l’outil à analyser les images réalisées avec des modèles d’IA d’autres sociétés. Dans de telles situations, l'outil d'OpenAI pourrait reconnaître seulement 5 % ou 10 % des images par rapport à des modèles autres que lui. De telles modifications dans ces images, comme les changements de teinte, ont également considérablement réduit l'efficacité, a déclaré Agarwal au Journal.

Les images créées par l’IA sont non seulement artificielles, mais posent également des problèmes en cette année électorale. Les groupes lésés, tant à l’intérieur qu’à l’extérieur d’un pays, peuvent facilement utiliser de telles photos pour entacher un aspirant politicien ou une cause défendue. De nos jours, alors que les générateurs d’images IA continuent de se développer, la frontière entre réalité et fantasme est plus difficile que jamais à tracer. 

Adoption par l'industrie

D’un autre côté, OpenAI cherche à ajouter des filigranes aux métadonnées des images d’IA à mesure que les entreprises deviennent membres de la User Value Organization (UVG). Le C2PA appartient à une initiative de l'industrie technologique qui s'accompagne de normes techniques permettant de dévoiler la source du contenu et son authenticité dans le processus connu sous le nom de filigrane.  Le géant Facebook Meta a déclaré plus tôt ce mois-ci que son IA serait labellisée comme telle par la norme C2PA à partir de mai prochain.