Изображения, созданные ИИ, могут обмануть вас, заставив воспринимать поддельный контент как оригинальный. Вот почему OpenAI, разработчик ChatGPT, создал инструмент, который может определить, является ли изображение результатом DALL-E 3, единственного алгоритма генерации изображений, который они разработали.

Во вторник OpenAI предоставил пользователям первую возможность протестировать инструмент обнаружения изображений, состоящий из базовых и настроенных моделей. Цель состоит в том, чтобы привлечь самостоятельных исследователей к изучению опасностей, полезности, способов его применения и факторов, которые могут вызвать контент, создаваемый ИИ. 

Уровень успеха и тестирование инструмента

OpenAI провела внутреннее тестирование инструмента, и в некоторых аспектах оно обнадежило, но с другой стороны, очень разочаровало. При оценке изображений, созданных DALL-E 3, 98% из них были обработаны правильно. Кроме того, при анализе изображений, сделанных не DALL-E 3, система ошибочно приписывала их DALL-E 3 только в 0,5% случаев. 

OpenAI не обнаружил модификации изображения с незначительной существенной разницей. Внутренняя группа протестировала инструмент, сжимая, обрезая и изменяя насыщенность изображения, созданного DALL-E 3, и заметила, что инструмент все же смог достичь хорошего уровня успеха. 

Проблемы и ограничения

К сожалению, этот инструмент оказался не очень эффективен с изображениями, которые были тщательно обработаны. В формулировке этой статьи OpenAI неясно, сколько модификаций они внесли в описываемых случаях, и говорится, что «другие модификации могут снизить производительность». 

В интервью The Wall Street Journal исследователь Сандини Агарвал заявила, что этот инструмент менее эффективен в таких ситуациях, как изменение оттенка изображения, и что требуется подписка. Как упомянул Агарвал, для решения подобных проблем OpenAI будет привлекать к системе внешних тестировщиков. 

Более того, внутреннее тестирование также поставило под сомнение способность инструмента анализировать изображения, сделанные с помощью моделей искусственного интеллекта других компаний. В таких ситуациях инструмент OpenAI мог распознать только 5% или 10% изображений по отношению к другим моделям. По словам Агарвала, такие модификации изображений, как переключение оттенков, также значительно снижают эффективность.

Изображения, созданные искусственным интеллектом, не только искусственны, но и создают проблемы в этот год выборов. Пострадавшие группы, как внутри страны, так и за ее пределами, могут легко использовать такие фотографии, чтобы очернить честолюбивого политика или дело, которое отстаивают. Сегодня, когда генераторы изображений ИИ продолжают развиваться, грань между реальностью и фантазией провести сложнее, чем когда-либо. 

Принятие в промышленности

С другой стороны, OpenAI стремится добавлять водяные знаки в метаданные изображений ИИ, поскольку компании становятся членами организации User Value Organization (UVG). C2PA принадлежит инициативе технологической отрасли, которая включает технические стандарты для раскрытия источника контента и его аутентичности в процессе, известном как нанесение водяных знаков.  Ранее в этом месяце гигант Facebook Meta заявил, что начиная с мая этого года его ИИ будет маркироваться стандартом C2PA.