Dopo che gli strumenti precedenti non sono stati all’altezza, OpenAI ha lanciato un altro rilevatore di intelligenza artificiale incentrato sulle immagini e sul crescente rischio di deepfake.
OpenAI, pioniere nel campo dell’intelligenza artificiale generativa, sta accettando la sfida di rilevare le immagini deepfake in un momento in cui i contenuti fuorvianti sono sempre più comuni sui social media. Mira Murati, chief technology officer dell'azienda, ha presentato un nuovo rilevatore di deepfake alla recente conferenza WSJ Technology Live a Laguna Beach, in California.
Murati ha affermato che il nuovo strumento di OpenAI ha "un'affidabilità del 99%" nel determinare se un'immagine è stata generata utilizzando l'intelligenza artificiale.
Le immagini generate dall’intelligenza artificiale possono includere di tutto, dalle creazioni spensierate, come Papa Francesco in un soffice cappotto Balenciaga, alle immagini ingannevoli che possono provocare il caos finanziario. Le potenzialità e le insidie dell’IA sono chiare. Poiché questi strumenti diventano sempre più sofisticati, distinguere tra contenuti reali e contenuti generati dall’intelligenza artificiale si sta rivelando una sfida.
Sebbene la data di rilascio dello strumento rimanga segreta, il suo rilascio ha suscitato un notevole interesse, soprattutto visti gli sforzi passati di OpenAI.
Nel gennaio 2022, la società ha lanciato un classificatore di testo in grado di distinguere la scrittura umana dal testo generato dalla macchina da modelli come ChatGPT. Ma a luglio OpenAI ha chiuso silenziosamente lo strumento e ha rilasciato un aggiornamento affermando che il suo tasso di errore era inaccettabilmente alto. Il loro classificatore ha erroneamente etichettato la scrittura umana reale come generata dall’intelligenza artificiale nel 9% dei casi.
Se le affermazioni di Murati fossero vere, sarebbe un momento importante per il settore, poiché gli attuali metodi di rilevamento delle immagini generate dall’intelligenza artificiale spesso non sono automatizzati. In genere, gli hobbisti si affidano all’intuito e si concentrano su sfide ben note che ostacolano l’intelligenza artificiale generativa, come tracciare mani, denti e schemi. La distinzione tra immagini generate dall’intelligenza artificiale e immagini modificate dall’intelligenza artificiale rimane sfocata, soprattutto quando si tenta di utilizzare l’intelligenza artificiale per rilevare l’intelligenza artificiale.
OpenAI non solo funziona per rilevare immagini AI dannose, ma stabilisce anche barriere sulla censura dei propri modelli, anche oltre ciò che afferma pubblicamente nelle sue linee guida sui contenuti.
Come scoperto da Decrypt, lo strumento Dall-E di OpenAI sembra essere configurato per modificare i prompt senza notifica e generare silenziosamente errori quando viene chiesto di produrre output specifici, anche se conformi alle linee guida pubblicate, ed evitare di creare relativi a nomi, stili di artisti e razze specifici .
Parte del prompt Dall-E 3 in ChatGPT. Fonte: Decryp
Rilevare i deepfake non è solo un’impresa di OpenAI. DeepMedia è un'azienda che sviluppa questa capacità, lavorando esclusivamente con clienti governativi.
Anche le grandi aziende come Microsoft e Adobe si stanno rimboccando le maniche. Hanno lanciato quello che chiamano un sistema di “filigrana AI”. Il meccanismo, guidato dalla Content Provenance and Authenticity Alliance (C2PA), include un simbolo “cr” univoco all’interno del fumetto per indicare il contenuto generato dall’intelligenza artificiale. Il simbolo ha lo scopo di fungere da faro di trasparenza, consentendo agli utenti di discernere l'origine del contenuto.
Tuttavia, come ogni tecnologia, non è infallibile. Esiste una vulnerabilità che può rimuovere i metadati che portano questo simbolo. Tuttavia, come soluzione, Adobe ha lanciato anche un servizio cloud in grado di recuperare i metadati perduti, garantendo così l'esistenza del simbolo. Inoltre non è difficile da aggirare.
Poiché le autorità di regolamentazione criminalizzano sempre più i deepfake, queste innovazioni non sono solo conquiste tecnologiche ma anche necessità sociali. Le recenti iniziative di OpenAI e di aziende come Microsoft e Adobe sottolineano lo sforzo collettivo per garantire l’autenticità nell’era digitale. Sebbene questi strumenti vengano aggiornati per fornire un livello più elevato di autenticità, la loro effettiva implementazione dipende da un’adozione diffusa. Ciò coinvolge non solo i giganti della tecnologia, ma anche i creatori di contenuti, le piattaforme di social media e gli utenti finali.
Con il rapido sviluppo dell’intelligenza artificiale generativa, i rilevatori hanno ancora difficoltà a distinguere l’autenticità di testo, immagini e audio. Attualmente, il giudizio umano e la vigilanza sono le nostre migliori linee di difesa contro l’uso improprio dell’IA. Tuttavia, gli esseri umani non sono infallibili. Soluzioni durature richiederanno che i leader tecnologici, i legislatori e il pubblico lavorino insieme per esplorare questo nuovo e complesso territorio. #OpenAI #AI检测