Obrazy wygenerowane przez sztuczną inteligencję mogą oszukać Cię i sprawić, że uznasz fałszywe treści za oryginalne. Dlatego OpenAI, twórca ChatGPT, stworzył narzędzie, które może określić, czy obraz pochodzi z DALL-E 3, jedynego opracowanego przez nich algorytmu generowania obrazów.

We wtorek OpenAI dało użytkownikom pierwszą szansę przetestowania narzędzia do wykrywania obrazu składającego się z modeli podstawowych i dostrojonych. Celem jest zaangażowanie niezależnych badaczy do zbadania obaw, użyteczności, sposobów ich zastosowania oraz czynników, które mogą powodować treści generowane przez sztuczną inteligencję.

Wskaźnik skuteczności i testowanie narzędzia

OpenAI przetestowało to narzędzie wewnętrznie i pod pewnymi względami było zachęcające, z drugiej jednak strony bardzo rozczarowujące. Ocena obrazów wytworzonych przez DALL-E 3 wykazała, że ​​98% z nich zostało wyrenderowanych poprawnie. Dodatkowo, analizując zdjęcia, które nie zostały wykonane przez DALL-E 3, system błędnie przypisał je do DALL-E 3 tylko w 0,5% przypadków. 

OpenAI nie znalazł modyfikacji obrazu z nieznacznie znaczącą różnicą. Wewnętrzny zespół przetestował narzędzie, kompresując, przycinając i wprowadzając zmiany nasycenia w obrazie utworzonym przez DALL-E 3 i zaobserwował, że narzędzie nadal było w stanie osiągnąć dobry poziom sukcesu. 

Wyzwania i ograniczenia

Niestety, narzędzie to nie było zbyt skuteczne w przypadku zdjęć, które zostały poddane intensywnej obróbce. Brzmienie tego artykułu autorstwa OpenAI nie precyzuje, ile modyfikacji dokonano w opisanych przez siebie przypadkach, ponadto stwierdza się, że „inne modyfikacje mogą zmniejszyć wydajność”. 

W rozmowie z The Wall Street Journal badaczka Sandhini Agarwal stwierdziła, że ​​narzędzie jest mniej skuteczne w sytuacjach takich jak zmiana odcienia obrazu oraz konieczność wykupienia abonamentu. Jak wspomniał Agarwal, aby uporać się z tego typu problemami, OpenAI będzie wprowadzać do systemu zewnętrznych testerów. 

Co więcej, wewnętrzne testy zakwestionowały również zdolność narzędzia do analizowania obrazów wykonanych przy użyciu modeli AI innych firm. W takich sytuacjach narzędzie OpenAI mogło rozpoznać jedynie 5% lub 10% obrazów w odniesieniu do innych modeli. Agarwal powiedział „Journalowi”, że takie modyfikacje takich obrazów, jak przełączniki odcieni, również znacznie zmniejszają wydajność.

Obrazy stworzone przez sztuczną inteligencję są nie tylko sztuczne, ale także stwarzają problemy w tym roku wyborczym. Pokrzywdzone grupy, zarówno w kraju, jak i poza nim, mogą z łatwością wykorzystać takie zdjęcia, aby zbrukać aspirującego polityka lub popieraną sprawę. W dzisiejszych czasach, gdy generatory obrazów AI stale się rozwijają, granica między rzeczywistością a fantazją jest trudniejsza niż kiedykolwiek do określenia. 

Przyjęcie w branży

Z drugiej strony OpenAI stara się dodawać znaki wodne do metadanych obrazów AI, gdy firmy stają się członkami organizacji User Value Organisation (UVG). C2PA należy do inicjatywy branży technologicznej, która zapewnia standardy techniczne umożliwiające ujawnienie źródła treści i jej autentyczności w procesie znanym jako znak wodny.  Facebookowy gigant Meta powiedział na początku tego miesiąca, że ​​od maja tego roku jego sztuczna inteligencja będzie oznaczona jako taka w standardzie C2PA.