Après l’échec des outils précédents, OpenAI a lancé un autre détecteur d’IA axé sur les images et le risque croissant de deepfakes.

OpenAI, pionnier dans le domaine de l’intelligence artificielle générative, relève le défi de détecter les images deepfake à une époque où les contenus trompeurs sont de plus en plus courants sur les réseaux sociaux. Mira Murati, directrice de la technologie de l'entreprise, a dévoilé un nouveau détecteur de deepfake lors de la récente conférence WSJ Technology Live à Laguna Beach, en Californie.

Murati a déclaré que le nouvel outil d'OpenAI a « une fiabilité de 99 % » pour déterminer si une image a été générée à l'aide de l'IA.

Les images générées par l’IA peuvent inclure de tout, depuis des créations légères, comme le pape François dans un manteau Balenciaga moelleux, jusqu’à des images trompeuses qui peuvent causer des ravages financiers. Le potentiel et les pièges de l’IA sont clairs. À mesure que ces outils deviennent plus sophistiqués, faire la distinction entre le contenu réel et le contenu généré par l’IA s’avère être un défi.

Bien que la date de sortie de l'outil reste secrète, sa sortie a suscité un intérêt considérable, notamment compte tenu des efforts passés d'OpenAI.

En janvier 2022, la société a lancé un classificateur de texte qui, selon elle, pourrait distinguer l'écriture humaine du texte généré par la machine à partir de modèles tels que ChatGPT. Mais en juillet, OpenAI a discrètement fermé l’outil et publié une mise à jour indiquant que son taux d’erreur était inacceptablement élevé. Leur classificateur a incorrectement étiqueté l’écriture humaine réelle comme étant générée par l’IA dans 9 % des cas.

Si les affirmations de Murati sont vraies, ce serait un moment important pour l'industrie, car les méthodes actuelles de détection des images générées par l'IA ne sont souvent pas automatisées. En règle générale, les amateurs s'appuient sur leur intuition et se concentrent sur les défis bien connus qui entravent l'IA générative, tels que le traçage des mains, des dents et des motifs. La distinction entre les images générées par l’IA et les images éditées par l’IA reste floue, surtout lorsque l’on tente d’utiliser l’IA pour détecter l’IA.

Non seulement OpenAI s’efforce de détecter les images d’IA nuisibles, mais il établit également des garde-fous concernant la censure de ses propres modèles, même au-delà de ce qu’il déclare publiquement dans ses directives de contenu.

Comme Decrypt l'a découvert, l'outil Dall-E d'OpenAI semble être configuré pour modifier les invites sans notification et générer silencieusement des erreurs lorsqu'on lui demande de produire une sortie spécifique, même si elles sont conformes aux directives publiées, et éviter de créer des erreurs liées à des noms, des styles d'artistes et des races spécifiques. .

Une partie de l'invite Dall-E 3 dans ChatGPT. Source : Décrypter

La détection des deepfakes n’est pas seulement l’affaire d’OpenAI. DeepMedia est une société développant cette capacité, travaillant exclusivement avec des clients gouvernementaux.

De grandes entreprises comme Microsoft et Adobe retroussent également leurs manches. Ils ont lancé ce qu’ils appellent un système de « filigrane IA ». Le mécanisme, piloté par la Content Provenance and Authenticity Alliance (C2PA), comprend un symbole « cr » unique à l’intérieur de la bulle pour indiquer le contenu généré par l’IA. Le symbole est destiné à servir de phare de transparence, permettant aux utilisateurs de discerner l'origine du contenu.

Cependant, comme toute technologie, elle n’est pas infaillible. Il existe une vulnérabilité qui peut supprimer les métadonnées portant ce symbole. Cependant, comme solution, Adobe a également lancé un service cloud capable de récupérer les métadonnées perdues, garantissant ainsi l'existence des symboles. Ce n’est pas non plus difficile à contourner.

Alors que les régulateurs criminalisent de plus en plus les deepfakes, ces innovations ne sont pas seulement des avancées technologiques mais aussi des nécessités sociales. Les initiatives récentes d'OpenAI et d'entreprises comme Microsoft et Adobe soulignent l'effort collectif visant à garantir l'authenticité à l'ère numérique. Bien que ces outils soient améliorés pour offrir un degré d’authenticité plus élevé, leur mise en œuvre efficace dépend de leur adoption généralisée. Cela implique non seulement les géants de la technologie, mais également les créateurs de contenu, les plateformes de médias sociaux et les utilisateurs finaux.

Avec le développement rapide de l’intelligence artificielle générative, les détecteurs ont encore du mal à distinguer l’authenticité du texte, des images et du son. Actuellement, le jugement humain et la vigilance sont nos meilleures lignes de défense contre l’utilisation abusive de l’IA. Toutefois, les humains ne sont pas infaillibles. Des solutions durables nécessiteront que les leaders technologiques, les législateurs et le public travaillent ensemble pour naviguer dans ce nouveau territoire complexe. #OpenAI #AI检测