După ce instrumentele anterioare au eșuat, OpenAI a lansat un alt detector AI concentrat pe imagini și pe riscul în creștere de deepfake.
OpenAI, un pionier în domeniul inteligenței artificiale generative, își asumă provocarea de a detecta imagini deepfake într-un moment în care conținutul înșelător este din ce în ce mai frecvent pe rețelele sociale. Mira Murati, directorul de tehnologie al companiei, a dezvăluit un nou detector de deepfake la recenta conferință WSJ Technology Live din Laguna Beach, California.
Murati a spus că noul instrument OpenAI are „fiabilitate de 99%” în a determina dacă o imagine a fost generată folosind AI.
Imaginile generate de inteligență artificială pot include totul, de la creații ușoare, cum ar fi Papa Francisc într-o haină pufoasă Balenciaga, până la imagini înșelătoare care pot face ravagii financiare. Potențialul și capcanele AI sunt clare. Pe măsură ce aceste instrumente devin mai sofisticate, diferențierea conținutului real de conținutul generat de IA se dovedește a fi o provocare.
În timp ce data de lansare a instrumentului rămâne secretă, lansarea sa a generat un interes semnificativ, mai ales având în vedere eforturile anterioare ale OpenAI.
În ianuarie 2022, compania a lansat un clasificator de text despre care spunea că ar putea distinge scrierea umană de textul generat de mașini de modele precum ChatGPT. Dar până în iulie, OpenAI a oprit în liniște instrumentul și a emis o actualizare în care spunea că rata de eroare a acestuia era inacceptabil de mare. Clasificatorul lor a etichetat incorect scrierea umană reală ca fiind generată de AI în 9% din timp.
Dacă afirmațiile lui Murati sunt adevărate, ar fi un moment important pentru industrie, deoarece metodele actuale de detectare a imaginilor generate de AI nu sunt adesea automatizate. De obicei, pasionații se bazează pe intuiție și se concentrează pe provocări binecunoscute care împiedică AI generativă, cum ar fi urmărirea mâinilor, a dinților și a modelelor. Distincția dintre imaginile generate de AI și imaginile editate de AI rămâne neclară, mai ales atunci când cineva încearcă să folosească AI pentru a detecta AI.
OpenAI nu numai că funcționează pentru a detecta imaginile AI dăunătoare, ci și stabilește balustrade cu privire la cenzurarea propriilor modele, chiar și dincolo de ceea ce afirmă public în regulile sale de conținut.
După cum a descoperit Decrypt, instrumentul Dall-E al OpenAI pare să fie configurat pentru a modifica solicitările fără notificare și pentru a arunca erori în tăcere atunci când li se cere să producă rezultate specifice, chiar dacă respectă regulile publicate și pentru a evita crearea referitoare la nume specifice, stiluri de artiști și rase. .
O parte a promptului Dall-E 3 în ChatGPT. Sursa: Decriptare
Detectarea deepfake-urilor nu este doar sarcina OpenAI. DeepMedia este o companie care dezvoltă această capacitate, lucrând exclusiv cu clienți guvernamentali.
Companii mari precum Microsoft și Adobe își suflecă și ele mânecile. Ei au lansat ceea ce ei numesc un sistem „AI watermarking”. Mecanismul, condus de Content Provenance and Authenticity Alliance (C2PA), include un simbol unic „cr” în interiorul balonului de vorbire pentru a indica conținutul generat de AI. Simbolul este menit să servească drept un far al transparenței, permițând utilizatorilor să discearnă originea conținutului.
Cu toate acestea, ca orice tehnologie, nu este sigură. Există o vulnerabilitate care poate elimina metadatele care poartă acest simbol. Totuși, ca soluție, Adobe a lansat și un serviciu cloud capabil să recupereze metadatele pierdute, asigurând astfel existența simbolului. De asemenea, nu este greu de ocolit.
Pe măsură ce autoritățile de reglementare criminalizează din ce în ce mai mult deepfake-urile, aceste inovații nu sunt doar realizări tehnologice, ci și necesități sociale. Inițiativele recente ale OpenAI și companii precum Microsoft și Adobe subliniază efortul colectiv de a asigura autenticitatea în era digitală. Deși aceste instrumente sunt actualizate pentru a oferi un grad mai mare de autenticitate, implementarea lor eficientă depinde de adoptarea pe scară largă. Acest lucru implică nu numai giganții tehnologiei, ci și creatorii de conținut, platformele de social media și utilizatorii finali.
Odată cu dezvoltarea rapidă a inteligenței artificiale generative, detectoarele încă întâmpină dificultăți în a distinge autenticitatea textului, imaginilor și audio. În prezent, raționamentul uman și vigilența sunt cele mai bune linii de apărare împotriva utilizării greșite a AI. Cu toate acestea, oamenii nu sunt infailibili. Soluțiile de durată vor necesita liderii tehnologiei, legislatorii și publicul să lucreze împreună pentru a naviga pe acest nou teritoriu complex. #OpenAI #AI检测