Організація захисту конфіденційності Noyb подала скаргу на OpenAI до Австрійського управління із захисту даних (DPA) на тій підставі, що її продукт ChatGPT порушує багато законів ЄС про захист даних. Організація заявила, що ChatGPT ділиться некоректною інформацією про людей, а Загальний регламент ЄС із захисту даних (GDPR) вимагає, щоб інформація про людей була правильною, і їм повинен бути наданий повний доступ до інформації, яка стосується них.

OpenAI стикається з GDPR

Noyb був створений відомим юристом і активістом Максом Шремсом, і він стверджував, що ChatGPT поділився неправдивою датою дня народження відомого громадського діяча, і коли запитали дозвіл на доступ і видалення пов’язаних з ним даних, Open AI відхилив його запит.

Нойб каже, що відповідно до GDPR ЄС будь-яка інформація про будь-яку особу має бути точною, і вони повинні мати доступ та інформацію про джерело, але відповідно до цього OpenAI каже, що він не може виправити інформацію в своїй моделі ChatGPT. Компанія також не може сказати, звідки надійшла ця інформація, і навіть не знає, які дані про людей зберігає ChatGPT.

Noyb стверджує, що OpenAI знає про проблему і, схоже, її не хвилює, оскільки її аргумент щодо проблеми такий:

«Фактична точність у великих мовних моделях залишається областю активних досліджень».

Нойб зазначив, що неправильна інформація може бути допустимою, коли ChatGPT викидає її, коли учні використовують її для домашнього завдання, але він сказав, що це явно неприйнятно для окремих людей, оскільки законодавство ЄС вимагає, щоб особисті дані були точними.

Галюцинації роблять чат-боти невідповідними нормам ЄС

Нойб зазначив, що моделі ШІ схильні до галюцинацій і подають інформацію, яка насправді є неправдивою. Вони поставили під сумнів технічну процедуру OpenAI для генерування інформації, оскільки вона відзначила міркування OpenAI, що,

«відповідає на запити користувачів шляхом передбачення наступних найбільш імовірних слів, які можуть з’явитися у відповідь на кожну підказку».

Джерело: Statista.

Нойб стверджує, що це означає, що незважаючи на те, що компанія має великі набори даних, доступних для навчання своєї моделі, вона все ж не може гарантувати, що відповіді, надані користувачам, є фактично правильними.

Адвокат Noyb із захисту даних Мартьє де Гааф сказав:

«Вигадати неправдиву інформацію саме по собі досить проблематично. Але коли йдеться про неправдиву інформацію про окремих людей, це може мати серйозні наслідки».

Джерело: Noyb.

Він також сказав, що будь-яка технологія має відповідати законам і не може використовуватися, оскільки, за його словами, якщо інструмент не може дати правильні результати щодо окремих людей, його не можна використовувати для цієї мети. Він також додав, що компанії ще не технічно обґрунтовані створювати чат-боти, які можуть відповідати законодавству ЄС з цього питання.

Генеративні інструменти штучного інтелекту перебувають під пильною увагою європейських регуляторів конфіденційності, оскільки ще в 2023 році італійський DPA тимчасово обмежив захист даних. Поки незрозуміло, якими будуть результати, але, за словами Нойба, OpenAI навіть не прикидається, що буде відповідати законодавству ЄС.