Зображення, створені штучним інтелектом, можуть змусити вас сприйняти підроблений вміст як оригінальний. Ось чому OpenAI, розробник ChatGPT, створив інструмент, який може визначити, чи є зображення результатом DALL-E 3, єдиного алгоритму генерації зображень, який вони розробили.

У вівторок OpenAI дав користувачам перший шанс протестувати інструмент виявлення зображень, що складається з базових і налаштованих моделей. Мета полягає в тому, щоб залучити самодіяльних дослідників до вивчення побоювань, корисності, способів його застосування та факторів, які можуть спричинити створення контенту ШІ.

Рівень успіху інструменту та тестування

OpenAI перевірив інструмент усередині себе, і в деяких аспектах він був обнадійливим, а з іншого боку, він дуже розчарував. Оцінка зображень, створених DALL-E 3, показала, що 98% із них відтворено правильно. Крім того, під час аналізу зображень, зроблених не за допомогою DALL-E 3, система помилково віднесе їх до DALL-E 3 лише в 0,5% випадків. 

OpenAI не знайшов модифікації зображення з дещо істотною різницею. Внутрішня команда протестувала інструмент, стиснувши, обрізавши та змінивши насиченість зображення, створеного DALL-E 3, і помітила, що інструмент усе ще може досягти хорошого рівня успіху. 

Виклики та обмеження

На жаль, інструмент не був дуже ефективним із зображеннями, які були ретельно оброблені. Формулювання цієї статті від OpenAI незрозуміло щодо того, скільки модифікацій вони зробили в описаних випадках, і вони кажуть, що «інші модифікації можуть знизити продуктивність». 

В інтерв’ю The Wall Street Journal дослідниця Сандхіні Агарвал сказала, що інструмент менш ефективний у таких ситуаціях, як зміна відтінку зображення, і що потрібна підписка. Як зазначив Агарвал, для вирішення таких проблем OpenAI залучатиме до системи зовнішніх тестувальників. 

Крім того, внутрішнє тестування також поставило під сумнів здатність інструменту аналізувати зображення, створені за допомогою моделей ШІ інших компаній. У таких ситуаціях інструмент OpenAI міг розпізнавати лише 5% або 10% зображень щодо моделей, відмінних від нього. Такі зміни в таких зображеннях, як перемикання відтінків, також значно знизили ефективність, сказав Агарвал Журналу.

Зображення, створені штучним інтелектом, не тільки штучні, але й створюють проблеми в цей рік виборів. Постраждалі групи, як усередині країни, так і за її межами, можуть легко використати такі фотографії, щоб заплямувати кандидата-початківця чи справу, яку відстоюють. Сьогодні, коли генератори зображень штучного інтелекту продовжують розвиватися, межу між реальністю та фантазією визначити складніше, ніж будь-коли. 

Прийняття промисловості

З іншого боку, OpenAI прагне додати водяні знаки до метаданих зображень AI, оскільки компанії стають членами User Value Organization (UVG). C2PA належить до ініціативи індустрії технологій, яка передбачає технічні стандарти для розкриття джерела вмісту та його автентичності в процесі, відомому як водяний знак.  Раніше цього місяця гігант Facebook Meta заявив, що з травня цього року його штучний інтелект буде позначено як такий стандартом C2PA.