Организация по обеспечению конфиденциальности Noyb подала жалобу на OpenAI в Австрийское управление по защите данных (DPA) на том основании, что ее продукт ChatGPT нарушает многие законы ЕС о защите данных. В организации заявили, что ChatGPT делится неверной информацией о людях, а Общий регламент ЕС по защите данных (GDPR) требует, чтобы информация о людях была верной, и им должен быть предоставлен полный доступ к информации, которая о них есть.

OpenAI грозит обвинение в GDPR

Noyb был основан известным юристом и активистом Максом Шремсом, и он утверждал, что ChatGPT сообщил ложную дату рождения известного общественного деятеля, а когда его попросили разрешения на доступ и удаление связанных с ним данных, Open AI отклонил его запрос.

Нойб говорит, что согласно GDPR ЕС любая информация о любом человеке должна быть точной и у него должен быть доступ и информация об источнике, но согласно ему OpenAI заявляет, что не может исправить информацию в своей модели ChatGPT. Компания также не может сказать, откуда взялась информация, и даже не знает, какие данные ChatGPT хранит о физических лицах.

Нойб утверждает, что OpenAI знает о проблеме и, похоже, не заботится об этом, поскольку ее аргумент по этому вопросу заключается в следующем:

«Фактическая точность в больших языковых моделях остается областью активных исследований».

Нойб отметил, что неправильная информация может быть терпима, когда ChatGPT выдает ее, когда студенты используют ее для выполнения домашних заданий, но отметил, что это явно неприемлемо для отдельных людей, поскольку законодательство ЕС требует, чтобы личные данные были точными.

Галлюцинации делают чат-ботов несоответствующими нормам ЕС

Нойб упомянул, что модели ИИ склонны к галлюцинациям и выдают ложную информацию. Они поставили под сомнение техническую процедуру генерации информации OpenAI, отметив доводы OpenAI о том, что:

«ответы на запросы пользователей путем прогнозирования следующих наиболее вероятных слов, которые могут появиться в ответ на каждый запрос».

Источник: Статистика.

Нойб утверждает, что это означает, что, несмотря на то, что компания располагает обширными наборами данных для обучения своей модели, она тем не менее не может гарантировать, что ответы, предоставляемые пользователям, фактически верны.

Адвокат Noyb по защите данных Маартье де Гааф заявил:

«Формирование ложной информации само по себе достаточно проблематично. Но когда дело доходит до ложной информации о людях, могут быть серьезные последствия».

Источник: Нойб.

Он также сказал, что любая технология должна следовать законам и не может быть использована, поскольку, по его мнению, если инструмент не может дать правильные результаты о людях, то его нельзя использовать для этой цели. Он также добавил, что компании еще не являются технически надежными, чтобы создавать чат-ботов, которые могут соответствовать законам ЕС по этому вопросу.

Инструменты генеративного искусственного интеллекта находятся под строгим контролем европейских регуляторов конфиденциальности, поскольку еще в 2023 году итальянское DPA временно ограничило защиту данных. Пока неясно, каковы будут результаты, но, по словам Нойба, OpenAI даже не делает вид, что будет соблюдать законодательство ЕС.