Le immagini generate dall'intelligenza artificiale possono indurti a percepire i contenuti falsi come originali. Ecco perché OpenAI, lo sviluppatore di ChatGPT, ha creato uno strumento in grado di determinare se un'immagine risulta da DALL-E 3, l'unico algoritmo per la generazione di immagini che hanno sviluppato.

Martedì, OpenAI ha offerto agli utenti la prima possibilità di testare uno strumento di rilevamento delle immagini costituito da modelli di base e ottimizzati. L’obiettivo è coinvolgere ricercatori autonomi per esaminare l’apprensione, l’utilità, i modi in cui potrebbe essere applicato e i fattori che potrebbero causare contenuti generati dall’intelligenza artificiale. 

Tasso di successo e test dello strumento

OpenAI ha testato internamente lo strumento e per alcuni aspetti è stato incoraggiante, mentre per altri è stato molto deludente. La valutazione delle immagini prodotte da DALL-E 3 ne ha renderizzate correttamente il 98%. Inoltre, analizzando le immagini non realizzate da DALL-E 3, il sistema le attribuiva erroneamente a DALL-E 3 solo lo 0,5% delle volte. 

OpenAI non ha rilevato la modifica di un'immagine con una differenza leggermente significativa. Il team interno ha testato lo strumento comprimendo, ritagliando e introducendo modifiche alla saturazione nell'immagine creata da DALL-E 3 e ha osservato che lo strumento era ancora in grado di raggiungere un buon livello di successo. 

Sfide e limiti

Sfortunatamente, lo strumento non è stato molto efficace con le immagini che erano state elaborate in modo approfondito. La formulazione di questo articolo di OpenAI non è chiara su quante modifiche siano state apportate nei casi descritti e affermano che "altre modifiche possono ridurre le prestazioni". 

In un'intervista con il Wall Street Journal, Sandhini Agarwal, un ricercatore, ha affermato che lo strumento è meno efficace in situazioni come la modifica della tonalità dell'immagine e che è richiesto un abbonamento. Come menzionato da Agarwal, per affrontare questo tipo di problemi, OpenAI coinvolgerà tester esterni nel sistema. 

Inoltre, i test interni hanno messo in dubbio anche la capacità dello strumento di analizzare le immagini realizzate con modelli AI di altre società. In tali situazioni, lo strumento di OpenAI potrebbe riconoscere solo il 5% o il 10% delle immagini rispetto a modelli diversi da esso. Tali modifiche in tali immagini, come i cambiamenti di tonalità, hanno anche ridotto significativamente l’efficienza, ha detto Agarwal al Journal.

Le immagini create dall’intelligenza artificiale non sono solo artificiali ma pongono anche problemi in questo anno elettorale. Gruppi offesi, sia all’interno che all’esterno di un paese, possono facilmente utilizzare tali foto per contaminare un aspirante politico o un caso sostenuto. Al giorno d’oggi, quando i generatori di immagini AI continuano a svilupparsi, il confine tra realtà e fantasia è più difficile che mai da definire. 

Adozione del settore

D'altra parte, OpenAI sta cercando di aggiungere filigrane ai metadati delle immagini AI man mano che le aziende diventano membri della User Value Organization (UVG). Il C2PA appartiene a un'iniziativa del settore tecnologico che prevede standard tecnici per svelare la fonte del contenuto e la sua autenticità nel processo noto come watermarking.  Il gigante di Facebook Meta ha dichiarato all’inizio di questo mese che la sua intelligenza artificiale sarà etichettata come tale dallo standard C2PA a partire da maggio.