AI Ethics 101: Navigating the Moral Landscape of Machine Learning

Inteligența artificială (AI) a schimbat modul în care trăim și lucrăm. Tehnologia influențează fiecare domeniu, de la marketing și tehnologie până la sănătate.

Entuziaștii AI se străduiesc să înțeleagă cum poate tehnologia să rezolve cele mai complexe probleme cu care se confruntă astăzi lumea, folosind învățarea automată (ML) ca temelie.

ML este procesul de alimentare a unui sistem cu date pentru a permite sistemului să îndeplinească sarcini. Acest lucru s-ar putea să nu sune a ceva nou, dar ceea ce este fascinant la ML este că un sistem poate folosi datele pe care le primește pentru a învăța singur sarcina și chiar a deveni mai bun în îndeplinirea sarcinii fără a necesita un om care să-i ofere instrucțiuni explicit, ceea ce era norma înainte de explozia AI.

De aceea ne îndreptăm spre lucruri precum mașinile autonome, care erau inconcebibile înainte. Alimentate de ML, astfel de mașini 'învăță' să devină 'șoferi' mai buni în timp.

Dar, un cuvânt de precauție.

AI preia rapid sarcini care afectează direct viața umană. În mod natural, se pun întrebări:

  1. Este AI corectă sau este părtinitoare?

  2. Va încălca AI drepturile noastre fundamentale?

Aceste discursuri au devenit cunoscute ca etica AI – practica de a identifica și aborda modul în care folosim AI fără a contrazice valorile umane.

În acest blog, vom discuta și naviga cum să avem conversații dificile și directe despre alinierea busolei morale a AI și ML.

Ce este etica AI?

AI etic examinează atent cum interacționează și afectează AI societatea umană. Persoanele implicate în AI etic discută despre cum să construiască un sistem AI în mod corect – în special în modul în care AI ia decizii din date într-un mod care minimizează orice riscuri.

Pentru a sublinia punctul, să folosim exemplul unei intervenții chirurgicale.

Un exemplu de AI în domeniul sănătății ar putea fi furnizorii care antrenează un sistem pentru a ajuta medicii să prioritizeze pacienții pe o listă de așteptare pentru intervenții chirurgicale. În acest caz, eticienii AI s-ar asigura că sistemul folosește metrici adecvate pentru a determina prioritatea (cum ar fi severitatea stării medicale), nu factori neetici (cum ar fi prioritizarea persoanelor din cartiere mai bogate).

În plus, eticienii s-ar asigura că AI este alimentată cu date corecte. Dacă AI primește date părtinitoare pentru a învăța, va perpetua doar stereotipurile dăunătoare.

În general, esența AI etice este de a crea sisteme care beneficiază societatea și minimizează daunele.

Este important să nu te lași influențat de progresele tehnologice în măsura în care poate compromite anumite membri ai societății.

De ce contează etica AI

AI etic protejează o persoană de daune în următoarele moduri.

Protejarea Drepturilor Fundamentale

AI în afaceri lucrează adesea cu date sensibile, cum ar fi informațiile financiare sau biometrice ale unei persoane.

Dacă măsurile de siguranță etice nu sunt implementate, aceste sisteme ar putea încălca drepturile lor umane. De exemplu:

  • Datele ar putea fi utilizate greșit

  • Datele ar putea fi vândute unor entități malefice

  • Oamenii ar putea fi supuși supravegherii neautorizate

În această privință, rolul AI etice ar fi să asigure că aceste sisteme funcționează transparent.

Prevenirea impacturilor disparate

Cât de inteligentă este ML, învățarea din date pline de prejudecăți umane poate avea consecințe catastrofale. Ar fi ca și cum ai amplifica rasismul, sexismul și altele de acest fel. Rezultatele ar putea duce la:

  • Decizii de împrumut părtinitoare

  • Practicile de angajare nedrepte

  • Decizii legale eronate

Designul sistemelor etice vine să elimine prejudecățile cognitive și inconștiente.

Abordarea riscurilor existențiale și sociale

Utilizarea greșită a AI într-un mod care cauzează crize existențiale este o problemă reală. Un exemplu principal este deepfake-urile.

Deepfake-urile sunt numele dat creării de media false hiper-realistice. Un actor malefic ar putea crea un deepfake (dublură) al unei celebrități și să-l facă să spună orice vrea – doar gândește-te cât de dăunător ar putea fi acest lucru pentru victimă și pentru societate în ansamblu.

Deepfake-urile pot duce la:

  • Răspândirea dezinformării

  • Furtul de identitate

Astfel de consecințe pot fi catastrofale în timpul evenimentelor globale, cum ar fi alegerile generale.

Întrebări etice cheie în dezvoltarea AI

Este bine că ridicăm întrebări importante legate de utilizarea AI, dar cum implementăm etica AI? Există mai multe întrebări de luat în considerare.

Cine decide ce este drept?

Cine decide ce este drept și ce este greșit? La urma urmei, cu excepția cazului în care cineva urmează un cod de conduită strict (cum ar fi cele găsite în religia organizată), moralitatea rămâne subiectivă.

Ce este dreptul tău ar putea fi greșeala mea.

Deci, cine decide? (și cine decide cine decide?)

Ar trebui să fie:

  • Organizația în ansamblu?

  • Un grup de conducere dedicat?

  • Guvernul?

  • Dezvoltatorii?

  • Papa?

În general, cea mai bună cale de urmat este un grup de conducere divers, care poate avea opinii din diferite colțuri ale spectrului. Cu cât avem mai multe perspective diverse, cu atât sunt mai mari șansele de a face o alegere bună, deoarece fiecare grup poate compensa punctele oarbe respective ale AI.

Și, deși moralitatea poate fi subiectivă, există o mare parte din aceasta care are un consens uman de 99,99%, așa că mlaștina morală nu va fi neapărat complexă de fiecare dată, dar va trebui să avem decizii de grup.

Cum prevenim prejudecățile?

Sistemele AI trebuie să fie concepute pentru a evita discriminarea împotriva indivizilor sau grupurilor. Prejudecățile din datele de antrenament pot duce la rezultate nedrepte, cum ar fi refuzarea împrumuturilor pe baza factorilor demografici. Asigurarea echității necesită seturi de date diverse și teste riguroase pentru a detecta și corecta prejudecățile.

Suntem transparenți?

Oamenii trebuie să înțeleagă cum iau decizii sistemele AI. O lipsă de transparență confuză și diminuează încrederea, în special în domenii critice precum sănătatea sau justiția penală. AI explicabilă înseamnă că oamenii pot înțelege raționamentul din spatele deciziilor.

Îi protejăm intimitatea oamenilor?

Ca o ramură a transparenței, sistemele ar trebui să comunice clar cum sunt colectate, stocate și partajate datele utilizatorilor – având în vedere că intimitatea este o preocupare etică principală în AI.

Cine este responsabil când lucrurile merg prost?

Trebuie să existe o ierarhie de comandă de urmat atunci când lucrurile merg prost.

Dezvoltatorii, organizațiile sau organismele de reglementare trebuie să stabilească cadre de responsabilitate pentru a gestiona riscurile și a oferi compensare pentru erori.

În ce măsură înlocuiește raționarea AI raționarea umană?

Factorul uman nu ar trebui niciodată eliminat din ecuația AI. Deciziile AI fără supraveghere umană pot fi dăunătoare.

Impact asupra locurilor de muncă

AI are potențialul de a automatiza sarcini, ceea ce poate înlocui muncitorii în diverse industrii.

Companiile simt că concedierile legate de AI sunt inevitabile. (Sursa imaginii.)

AI etic include strategii pentru a aborda aceste întreruperi, cum ar fi programele de recalificare sau crearea de noi oportunități de muncă pentru a atenua efectele economice.

Dezinformarea

După cum s-a menționat, tehnologiile AI precum deepfake-urile pot răspândi informații false și manipula opinia publică.

Cadrele etice trebuie să se concentreze pe detectarea și prevenirea utilizării greșite a AI pentru a proteja integritatea informației și a proceselor democratice.

Când AI merge prost: Studii de caz din viața reală

Îngrijorările menționate anterior sunt valide, având în vedere cum AI a mers prost în anumite cazuri în ultimii ani.

Recrutarea AI părtinitoare

Instrumentul de recrutare AI al Amazon penaliza CV-urile cu termeni precum „femei”, favorizând candidați de sex masculin din cauza modelor din datele istorice de angajare.

Discriminarea algoritmică în guvern

Scandalul beneficiilor pentru îngrijirea copiilor din Olanda este un exemplu flagrant de prejudecată algoritmică în aplicațiile guvernamentale. Un sistem AI a semnalat familiile cu venituri mici și cele cu dublă naționalitate ca potențiali fraudatori, ducând la acuzații false.

Manipularea datelor pentru câștig politic

Scandalul Cambridge Analytica a dezvăluit cum analizele alimentate de AI pot fi folosite greșit în politică. Prin exploatarea datelor utilizatorilor Facebook, compania a influențat alegerile prezidențiale din SUA din 2016, stârnind dezbateri despre confidențialitatea datelor și limitele etice ale AI în modelarea rezultatelor politice.

Pași pentru a dezvolta sisteme AI etice

Așa cum poți vedea, AI poate fi la fel de distrugătoare pe cât este o sursă de bine. Ca rezultat, există o mare nevoie de a dezvolta AI în mod etic.

Iată cum.

Construirea Principiilor Etice AI

Fiecare organizație are nevoie de un SOP etic pentru AI care să contureze modul în care intenționează să folosească AI în mod responsabil. Acestea ar trebui să devină obligatorii pentru publicare. O bună etică AI prioritizează drepturile omului, intimitatea și valorile democratice.

Acest SOP acționează apoi ca o stea nordică a organizației. Un raport din anul trecut a recomandat ca companiile AI să cheltuie 30% din fondurile lor pe R&D în siguranță și etică.

Și nu sunt doar companii pe profit care au nevoie de AI etic. Chiar și cele mai bune universități din Regatul Unit dezvoltă principii de orientare etică pentru AI.

Realizarea evaluărilor etice de risc

Nu este suficient să ai pur și simplu o politică în vigoare. Companiile trebuie să-și auditeze dezvoltarea și utilizarea AI în mod regulat pentru a identifica probleme precum încălcările de confidențialitate și rezultatele discriminatorii.

În esență, este vorba despre utilizarea unei AI bune (cum ar fi analizele predictive care pot anticipa riscurile potențiale) pentru a înfrunta o AI rea (fie că este malefică sau inofensivă).

Implementarea principiilor etice solide

Bright Data se diferențiază în AI și colectarea de date prin prioritizarea practicilor etice. Lucrează cu organizații precum Forumul Mondial pentru Date Etice pentru a aborda provocările utilizării responsabile a datelor în lumea tehnologică.

Orientările etice clare sunt abordarea lor, susținând transparența și responsabilitatea în modul în care datele sunt colectate și gestionate.

Angajamentul lor este demonstrat și prin inițiative precum Centrul de Încredere, care stabilește standarde pentru colectarea etică a datelor web, protejând în același timp interesele clienților și partenerilor.

Concentrându-se pe consimțământul clar al utilizatorului și respectând reglementări precum GDPR și CCPA, Bright Data arată cum practicile responsabile pot merge mână în mână cu inovația. Dedicarea lor pentru practici etice a făcut-o un exemplu deosebit în domeniul AI și colectării de date, stabilind un exemplu de cum inovația și responsabilitatea pot merge mână în mână.

Gânduri finale

Dezvoltarea etică a AI este esențială pentru a naviga provocările morale pe care le impune ML.

Când abordăm preocupările etice precum intimitatea, echitatea și impactul social, putem ajuta sistemele AI să se alinieze cu valorile umane și să promoveze încrederea.

Pentru organizații, integrarea principiilor etice AI în procesele lor de dezvoltare depășește o obligație morală sau legală. Este o condiție prealabilă pentru inovația responsabilă.

Articolul postat AI Ethics 101: Navigating the Moral Landscape of Machine Learning a apărut prima dată pe Metaverse Post.