Imaginile generate de inteligență artificială vă pot înșela să percepeți conținutul fals ca fiind original. De aceea, OpenAI, dezvoltatorul ChatGPT, a creat un instrument care poate determina dacă o imagine rezultă din DALL-E 3, singurul algoritm de generare de imagini pe care l-au dezvoltat.

Marți, OpenAI le-a oferit utilizatorilor prima șansă de a testa un instrument de detectare a imaginii constând din modele de bază și ajustate. Obiectivul este de a angaja cercetători auto-performanți pentru a examina gradul de îngrijorare, utilitatea, modurile în care ar putea fi aplicat și factorii care ar putea cauza conținut generat de AI.

Rata de succes și testarea instrumentului

OpenAI a testat instrumentul intern și, în unele aspecte, a fost încurajator, în timp ce, pe de altă parte, a fost foarte dezamăgitor. Evaluarea imaginilor produse de DALL-E 3 a redat 98% dintre ele corect. În plus, atunci când se analizează imagini care nu sunt realizate de DALL-E 3, sistemul le-ar atribui în mod eronat DALL-E 3 doar 0,5% din timp. 

OpenAI nu a găsit modificarea unei imagini cu o diferență ușor semnificativă. Echipa internă a testat instrumentul comprimând, decupând și introducând modificări de saturație în imaginea creată de DALL-E 3 și a observat că instrumentul a reușit să atingă un nivel bun de succes. 

Provocări și limitări

Din nefericire, instrumentul nu a fost foarte eficient cu imaginile care fuseseră procesate pe scară largă. Formularea acestui articol de la OpenAI nu este clară cu privire la câte modificări au făcut în cazurile pe care le descriu și spun că „alte modificări pot reduce performanța”. 

Într-un interviu acordat The Wall Street Journal, Sandhini Agarwal, cercetător, a spus că instrumentul a fost mai puțin eficient în situații precum schimbarea nuanței imaginii și că este necesar un abonament. După cum a menționat Agarwal, pentru a face față acestor tipuri de probleme, OpenAI va aduce testere externe în sistem. 

Mai mult, testarea internă a pus la îndoială și capacitatea instrumentului de a analiza imaginile realizate cu modele AI de la alte companii. În astfel de situații, instrumentul OpenAI ar putea recunoaște doar 5% sau 10% din imagini față de alte modele decât acesta. Astfel de modificări ale unor astfel de imagini, cum ar fi comutatoarele de nuanță, au scăzut semnificativ eficiența, a spus Agarwal pentru Journal.

Imaginile realizate de AI nu sunt doar artificiale, ci pun și probleme în acest an electoral. Grupurile afectate, atât în ​​interiorul unei țări, cât și în afara acesteia, pot folosi cu ușurință astfel de fotografii pentru a păta un politician aspirant sau un caz pentru care este susținut. În zilele noastre, când generatoarele de imagini AI continuă să se dezvolte, linia dintre realitate și fantezie este mai greu de spus ca niciodată. 

Adoptarea industriei

Pe de altă parte, OpenAI încearcă să adauge filigrane la metadatele imaginii AI, pe măsură ce companiile devin membre ale Organizației valorii utilizatorului (UVG). C2PA aparține unei inițiative din industria tehnologică care vine cu standarde tehnice pentru a dezvălui sursa conținutului și autenticitatea acestuia în procesul cunoscut sub numele de filigranare.  Gigantul Facebook Meta a declarat la începutul acestei luni că AI-ul său va fi etichetat ca atare de standardul C2PA începând cu luna mai.