После того, как предыдущий инструмент не оправдал ожиданий, OpenAI представила еще один ИИ-детектор, ориентированный на изображения и растущий риск дипфейков.

Компания OpenAI, пионер в области генеративного искусственного интеллекта, берется за решение задачи обнаружения поддельных изображений на фоне растущего распространения вводящего в заблуждение контента в социальных сетях. На недавней конференции Tech Live (Wall Street Journal) в Лагуна-Бич, Калифорния, главный технический директор компании Мира Мурати представила новый детектор дипфейков.

Мурати заявил, что новый инструмент OpenAI обладает «99-процентной надежностью» при определении того, было ли изображение создано с использованием ИИ.

Изображения, созданные с помощью искусственного интеллекта, могут включать в себя все: от беззаботных творений, таких как Папа Франциск в пушистом пальто Balenciaga, до обманчивых изображений, которые могут вызвать финансовый хаос. Потенциал и подводные камни ИИ очевидны. Поскольку эти инструменты становятся все более сложными, различение подлинного контента и контента, созданного с помощью ИИ, становится все более сложной задачей.

Хотя дата выпуска инструмента остается в секрете, его анонс вызвал большой интерес, особенно учитывая прошлые усилия OpenAI.

В январе 2022 года компания запустила текстовый классификатор, который, по ее словам, может отличать человеческий текст от текста, сгенерированного машиной с помощью таких моделей, как ChatGPT. Однако в июле OpenAI тихо закрыла инструмент и выпустила обновление, в котором говорилось, что уровень ошибок в нем неприемлемо высок. Их классификатор ошибочно помечал настоящий человеческий текст как сгенерированный ИИ в 9% случаев.

Если заявления Мурати верны, это станет важным моментом для отрасли, поскольку современные методы обнаружения изображений, созданных с помощью ИИ, как правило, не автоматизированы. Зачастую энтузиасты полагаются на интуицию и сосредотачиваются на известных проблемах, которые мешают генеративному ИИ, например, на изображении рук, зубов и узоров. Различие между изображениями, созданными с помощью ИИ, и изображениями, отредактированными с помощью ИИ, остается размытым, особенно когда люди пытаются использовать ИИ для его обнаружения.

OpenAI не только работает над обнаружением вредоносных изображений ИИ, но и устанавливает ограничения для цензуры собственных моделей, выходящие за рамки того, что публично заявлено в ее правилах по контенту.

Как обнаружила компания Decrypt, инструмент Dall-E от OpenAI, по-видимому, настроен на изменение подсказок без предварительного уведомления и тихое выдачу ошибок при запросе на создание определенных выходных данных, даже если они соответствуют опубликованным рекомендациям и избегают создания изображений, содержащих конкретные имена, стили художников и этнические группы.

Часть подсказки Dall-E 3 в ChatGPT. Источник: Расшифровка

Обнаружение дипфейков — это не только работа OpenAI. DeepMedia — компания, которая разработала эту возможность, работая специально с государственными заказчиками.

Крупные компании, такие как Microsoft и Adobe, также засучили рукава. Они представили так называемую систему «водяных знаков на основе искусственного интеллекта». Механизм, управляемый Альянсом по происхождению и подлинности контента (C2PA), включает в себя уникальный символ «cr» внутри речевого облака для обозначения контента, созданного с помощью ИИ. Символ призван служить своего рода маяком прозрачности, позволяя пользователям определять происхождение контента.

Однако, как и любая технология, она не является абсолютно надежной. Существует ошибка, которая удаляет метаданные, содержащие этот символ. Однако в качестве решения компания Adobe также запустила облачный сервис, который может восстановить утраченные метаданные, тем самым гарантируя существование символа. Обойти его также несложно.

Поскольку регулирующие органы стремятся криминализировать дипфейки, эти инновации становятся не просто технологическими достижениями, а социальной необходимостью. Недавние шаги OpenAI и таких компаний, как Microsoft и Adobe, подчеркивают коллективные усилия по обеспечению аутентичности в цифровую эпоху. Хотя эти инструменты были модернизированы для обеспечения более высокой степени аутентичности, их эффективная реализация зависит от повсеместного внедрения. Это касается не только технологических гигантов, но и создателей контента, социальных сетей и конечных пользователей.

Несмотря на стремительное развитие генеративного искусственного интеллекта, детекторам по-прежнему сложно распознавать подлинность текста, изображений и аудио. В настоящее время человеческое суждение и бдительность являются нашей лучшей линией защиты от неправомерного использования ИИ. Однако люди не непогрешимы. Долгосрочные решения потребуют от лидеров в области технологий, законодателей и общественности совместной работы по преодолению этой сложной новой ситуации.