openai

OpenAI, лідер у розробці технологій штучного інтелекту, зараз знаходиться в центрі скарги щодо конфіденційності в Австрії, поданої групою захисту прав даних Noyb. У скарзі ChatGPT OpenAI звинувачується в поширенні неправдивої інформації про особу та потенційному порушенні законів Європейського Союзу про конфіденційність.

OpenAI Сема Альтмана звинувачують у поширенні неправдивої інформації про людей: скарга в Австрії

Скарга була подана Noyb 29 квітня, стверджуючи, що OpenAI не виправляє неточності в інформації, наданій її чат-ботом AI, ChatGPT, щодо анонімної публічної особи.

Незважаючи на прохання діяча, OpenAI відмовився б виправляти або видаляти неточні дані та не розкрив джерела своїх навчальних даних.

Ця відмова може означати порушення суворих правил ЄС щодо захисту даних, спрямованих на захист особистої інформації та забезпечення точності даних.

Скарга Нойба підкреслює значну проблему у сфері штучного інтелекту: баланс між технологічним прогресом і правами особи на конфіденційність.

Загальний регламент ЄС із захисту даних (GDPR) визначає, що персональні дані мають бути точними та, за необхідності, оновлюватися; необхідно вжити всіх розумних заходів для того, щоб невідповідні особисті дані було видалено або виправлено без затримки.

Маарт’є де Грааф, юрист із захисту даних Noyb, заявив: «Якщо система не може давати точні та прозорі результати, її не можна використовувати для створення даних про осіб».

Технології повинні відповідати вимогам законодавства, а не навпаки». Ця заява підкреслює юридичне очікування того, що технології штучного інтелекту мають не лише розвивати можливості, але й узгоджуватись із встановленою правовою базою, яка захищає права людей.

Розслідування австрійської влади

Австрійський орган із захисту даних досліджує методи обробки даних OpenAI, зокрема те, як він забезпечує точність персональних даних, які обробляються його великими мовними моделями.

Це опитування може створити прецедент щодо того, як питання точності даних вирішуються у сфері штучного інтелекту в усьому Європейському Союзі.

Noyb, абревіатура від «None of Your Business», працює з Відня та відома своєю відданістю дотриманню стандартів захисту даних ЄС. Він стратегічно зосереджений на справах, які мають широкі наслідки для цифрових прав у Європі.

У Європі подібні занепокоєння виникли, коли дослідження показало, що чат-бот Microsoft Bing AI, перейменований на Copilot, надавав оманливу інформацію під час місцевих виборів у Німеччині та Швейцарії.

Навіть Gemini AI від Google критикують за створення неточних і упереджених зображень, що спонукало Google вибачитися та оновити модель.

Висновки

Ці приклади ілюструють зростаючі проблеми з інтеграцією штучного інтелекту в повсякденні програми, де точність інформації та дотримання законів про конфіденційність стають фундаментальними.

Результати скарги Noyb на OpenAI можуть мати значні наслідки для розробників штучного інтелекту, потенційно вимагаючи від них впровадження більш суворих заходів щодо точності та прозорості даних для дотримання законодавства ЄС.

Оскільки технології штучного інтелекту стають все більш інтегрованими в суспільство, завдання для таких розробників, як OpenAI, полягає в тому, щоб їхні продукти не лише розширювали межі технологічно можливого.