ChatGPT, вірусний чат-бот від OpenAI, все ще не відповідає стандартам точності даних Європейського Союзу, згідно з новим звітом служби захисту конфіденційності ЄС. 

Читайте також: Європейський закон про штучний інтелект отримав остаточне схвалення зі штрафами до 38 мільйонів доларів

Звіт Ради із захисту даних Європейського Союзу (EDPB) не є юридичним документом. Тим не менш, це забезпечить спільний підхід до регулювання ChatGPT у 27 державах-членах ЄС.

ChatGPT не відповідає стандартам даних

Національні спостерігачі сформували «оперативну групу ChatGPT» минулого року під впливом поточних справ у кількох європейських країнах проти моделі ШІ. Оперативна група підпадає під керівництво EDPB.

У звіті, опублікованому 24 травня, робоча група сказала:

«Хоча заходи, вжиті для дотримання принципу прозорості, є корисними для уникнення неправильного тлумачення виходу ChatGPT, вони недостатні для дотримання принципу точності даних».

Великі мовні моделі, або LLM, сумно відомі своїми «галюцинаціями» — техніка говорить за те, коли чат-боти ШІ вивергають неправду, часто з упевненістю.

Такі чат-боти, як ChatGPT або Google Gemini, працюють на базі LLM.  Відповідно до жорсткого європейського Загального регламенту захисту даних (GDPR), користувачі можуть подати до суду за неправдиве надання або відмову в можливості виправити неточну інформацію про себе.

Згідно зі звітом цільової групи, «через імовірнісний характер системи (AI) поточний підхід до навчання призводить до моделі, яка також може давати упереджені або вигадані результати».

«Вихідні дані, надані ChatGPT, ймовірно, будуть прийняті кінцевими користувачами як фактично достовірні, включаючи інформацію, що стосується окремих осіб, незалежно від їх фактичної точності», – додали в ньому.

Прапор Європейського Союзу. Джерело: Pixabay ЄС подвоює відповідність вимогам

Раніше OpenAI посилався на технічну складність своєї нездатності виправити дезінформацію, але наглядовий орган Європейського Союзу подвоївся.

«Зокрема, не можна посилатися на технічну неможливість для виправдання невиконання цих вимог», — зазначили в спецгрупі.

У нещодавно відкритій справі австрійський громадський діяч подає до суду на ChatGPT за те, що він не виправив дату свого народження. OpenAI заявив, що зробити це технічно неможливо, але цей новий звіт посилить тиск на модель ШІ.

Юрист із захисту даних, пов’язаний із цією справою, Маарт’є де Грааф, заявив, що компанії наразі не можуть змусити чат-боти ШІ відповідати законодавству ЄС при обробці даних про осіб.

«Якщо система не може видавати точні та прозорі результати, її не можна використовувати для створення даних про осіб. Технологія має відповідати вимогам законодавства, а не навпаки», – заявив де Грааф.

Занепокоєння щодо безпеки на OpenAI

Експерти кажуть, що ChatGPT вимагатиме амбітних змін, щоб уникнути порушення GDPR, який регулює захист даних у Європейському Союзі.

Правила також надають робочу модель для законів про дані в Аргентині, Бразилії, Чилі, Японії, Кенії, Маврикії, Південній Африці, Південній Кореї, Туреччині та Великобританії.

Читайте також: OpenAI позбавляє голосу ChatGPT після суперечки зі Скарлетт Йоханссон

Тим часом прихильність OpenAI до безпеки користувачів опинилася під питанням.

Компанію вразила низка гучних відставок, з відходом співзасновника Іллі Суцкевера, Гретхен Крюгер, Яна Лейке та півдюжини інших, які обґрунтовували потребу зміни культури.

Раніше цього тижня OpenAI оголосив про призупинення голосу ChatGPT «Sky» через занепокоєння, що він нагадує голос актриси Скарлетт Йоханссон у фільмі на тему ШІ «Вона».

Cryptopolitan Reporting Джеффрі Гого