Organul de protecție a intimității din Uniunea Europeană a intervenit în problemele emergente referitoare la legalitatea GenAI. Consiliul a explorat portițele pe care dezvoltatorii de AI le-ar putea exploata pentru a procesa date personale fără a contraveni legislației actuale.

Consiliul European pentru Protecția Datelor a ridicat întrebări cu privire la baza legală pentru dezvoltatorii de AI care procesează datele personale ale utilizatorilor. Într-un aviz publicat pe 17 decembrie, consiliul a abordat diverse chestiuni de aplicabilitate generală în conformitate cu articolul 64(2) din GDPR.

Consiliul de intimitate al Uniunii Europene intervine în problemele legate de protecția datelor și desfășurarea AI

Consiliul European pentru Protecția Datelor (EDPB) a emis avizul la solicitarea autorității de supraveghere irlandeze. Consiliul a remarcat că are un mandat statutar în conformitate cu Regulamentele Generale de Protecție a Datelor (GDPR) de a emite un aviz cu privire la chestiuni care afectează mai mult de un stat membru în cadrul Uniunii Europene.

Agenția a subliniat cererile prezentate de organismul irlandez referitoare la procesarea datelor personale în timpul fazelor de dezvoltare și desfășurare a Inteligenței Artificiale (AI). A restrâns avizul la patru probleme legate de protecția datelor în cadrul Uniunii Europene.

Problemele incluse au fost când și cum un model AI poate fi considerat anonim și cum operatorii pot ilustra necesitatea interesului legitim în desfășurare. Consiliul a explorat, de asemenea, consecințele procesării ilegale a datelor în timpul fazei de dezvoltare a unui model AI asupra funcționării ulterioare a modelului AI.

În ceea ce privește întrebarea când și cum poate fi determinată anonimatul unui model AI, organismul a declarat că o autoritate locală competentă ar trebui să facă o astfel de determinare pe baza fiecărui caz în parte. Consiliul a exprimat că nu consideră că toate modelele AI antrenate folosind date personale sunt anonime.

Organismul a recomandat autorităților naționale de supraveghere să evalueze documentația relevantă pe care o furnizează operatorul pentru a determina anonimatul unui model. A adăugat că operatorii ar trebui, de asemenea, să ia măsurile corespunzătoare pentru a limita colectarea datelor personale în timpul instruirii și pentru a reduce potențialele atacuri.

Pe tema interesului legitim ca bază legală adecvată pentru procesarea datelor personale în timpul desfășurării modelelor AI, consiliul a lăsat la latitudinea operatorilor să determine baza legală adecvată pentru procesarea acestor date.

EDPB a subliniat testul în trei pași pentru determinarea interesului legitim de către autoritățile de supraveghere. Pașii au inclus identificarea interesului legitim real și analiza necesității acestuia. Operatorii trebuie, de asemenea, să evalueze dacă interesul legitim se echilibrează cu drepturile și libertățile subiecților de date.

În evaluarea consecințelor, organismul a făcut referire la discreția autorităților de supraveghere din statele respective. A adăugat că autoritățile de supraveghere ar trebui să aleagă consecințele adecvate în funcție de faptele fiecărui scenariu.

Comisia pentru Protecția Datelor din Irlanda comentează asupra avizului EDPB referitor la reglementarea modelului AI

Comisia pentru Protecția Datelor din Irlanda a răspuns într-o declarație, menționând că avizul ar promova o reglementare eficientă și consistentă a modelelor AI în UE. Comisarul Dale Sunderland a comentat:

De asemenea, va sprijini implicarea DPC în colaborarea cu companiile care dezvoltă noi modele AI înainte de a fi lansate pe piața UE, precum și gestionarea numeroaselor plângeri legate de AI care au fost trimise la DPC.

Dale Sunderland

Plângerile împotriva producătorului ChatGPT, OpenAI, au fost raportate că au fost puse în discuție în ultimele luni. Autoritatea Poloneză pentru Protecția Datelor a ridicat anul trecut întrebări cu privire la conformitatea dezvoltatorului de AI cu GDPR.

Autoritatea a susținut că OpenAI a ignorat cerințele, cum ar fi consultarea prealabilă cu reglementatorii atunci când exista un risc de încălcare a datelor personale. Regulatorul a remarcat că OpenAI a lansat ChatGPT fără a consulta reglementatorii locali, contrar liniilor directoare GDPR.

Garantele Italiei a ordonat, de asemenea, OpenAI să înceteze procesarea datelor personale în 2023 înainte de a aborda problemele pe care le-a identificat cu platforma companiei. A subliniat că compania cu sediul în San Francisco nu avea măsuri pentru a preveni accesul minorilor la tehnologie, așa cum este cerut de lege.

Autoritatea de reglementare a avertizat că nerespectarea liniilor directoare ar atrage sancțiuni, inclusiv un procent de patru la sută din cifra de afaceri anuală sau douăzeci de milioane de euro, oricare ar fi mai mare.

Obțineți un loc de muncă bine plătit în Web3 în 90 de zile: Harta supremă