Pentru o clipă, luați în considerare câte fapte istorice acceptăm ca adevăr fără a pune la îndoială validitatea lor. Ce s-ar întâmpla dacă, de exemplu, o carte din secolul al VII-lea care detaliază o bătălie importantă ar fi de fapt rescrisă de cineva din secolul al IX-lea? Poate că un lider din secolul al IX-lea a pus un scrib să rescrie relatarea pentru a-și servi aspirațiile politice sau personale, permițându-le să dețină mai multă putere sau să creeze o moștenire pe baza unui pretext fals. 

Desigur, nu propun că faptele istorice acceptate în mod obișnuit sunt false sau manipulate. Totuși, evidențiază dificultatea verificării datelor istorice care preced epoca modernă, simbolizând o problemă pe care viitoarele dezvoltări AI necontrolate ar putea-o aduce înapoi.

Starea actuală a inteligenței artificiale are loc în cutii negre dominate în principal de entități puternice care ne expun riscului unui viitor distopic în care adevărurile pot fi rescrise. Trecerea Open AI la un model mai închis după promovarea unei abordări open-source a dezvoltării AI a declanșat aceste temeri și a ridicat îngrijorări cu privire la transparență și încrederea publicului.

Dacă această tendință devine direcția dominantă a AI, cei care acumulează putere de calcul și dezvoltă tehnologii și aplicații AI avansate pot crea realități alternative, inclusiv forjând narațiuni istorice.

Acum este momentul pentru reglementarea AI

Atâta timp cât entitățile centralizate își ascund algoritmii de public, amenințarea combinată a manipulării datelor și capacitatea acesteia de a destabiliza climatul politic și socioeconomic ar putea schimba cu adevărat cursul istoriei omenirii.

În ciuda numeroaselor avertismente, organizațiile de pe tot globul se străduiesc să utilizeze, să dezvolte și să acumuleze instrumente AI puternice care ar putea depăși sfera inteligenței umane în următorul deceniu. Deși această tehnologie se poate dovedi utilă, amenințarea care se profilează este că aceste evoluții ar putea fi abuzate pentru a restrânge libertățile, pentru a disemina campanii de dezinformare extrem de periculoase sau pentru a ne folosi datele pentru a ne manipula. 

Există chiar din ce în ce mai multe dovezi că agenții politici și guvernele folosesc generatoare comune de imagini AI pentru a manipula alegătorii și a semăna diviziuni interne între populațiile inamice. 

Vestea că cea mai recentă suită AI a iOS 18 poate citi și rezuma mesaje, inclusiv e-mail și aplicații terță parte, îi îngrijorează pe mulți cu privire la accesarea chat-urilor și a datelor private de Big Tech. Deci, ridică întrebarea: pășim într-un viitor în care actorii răi ne pot manipula cu ușurință prin intermediul dispozitivelor noastre?

Nu pentru a ne teme, dar să presupunem că dezvoltarea modelelor AI este lăsată la cheremul unor entități centralizate masiv puternice. Este ușor pentru cei mai mulți dintre noi să ne imaginăm acest scenariu ieșind complet de la sine, chiar dacă atât guvernele, cât și Big Tech cred că operează în interesul binelui mai mare.

În acest caz, cetățenii obișnuiți nu vor obține niciodată acces transparent la datele folosite pentru a antrena modele AI care progresează rapid. Și din moment ce nu ne putem aștepta ca Big Tech sau elemente din sectorul public să fie trase la răspundere în mod voluntar, este necesară stabilirea unor cadre de reglementare cu impact pentru a ne asigura că viitorul AI este etic și sigur.

Pentru a se opune lobby-urilor corporative care încearcă să blocheze orice acțiune de reglementare cu privire la IA, publicul le revine să ceară politicienilor să pună în aplicare reglementările necesare pentru a proteja datele utilizatorilor și pentru a se asigura că progresele AI se dezvoltă în mod responsabil, încurajând în același timp inovația.

California lucrează în prezent la adoptarea unui proiect de lege care să domnească în potențialele pericole ale inteligenței artificiale. Legislația propusă ar reduce utilizarea algoritmilor pentru copii, ar cere ca modelele să fie testate pentru capacitatea lor de a ataca infrastructura fizică și ar limita utilizarea falsurilor adânci, printre alte parapeți. În timp ce unii susținători ai tehnologiei își fac griji că acest proiect de lege va împiedica inovarea în principalul hub tehnologic din lume, există și îngrijorări că nu face suficient pentru a aborda discriminarea în cadrul modelelor AI. 

Dezbaterea în jurul încercărilor de legislație din California arată că doar reglementările nu sunt suficiente pentru a se asigura că viitoarele dezvoltări AI nu pot fi corupte de o mică minoritate de actori sau de un cartel Big Tech. Acesta este motivul pentru care IA descentralizată, alături de măsurile de reglementare rezonabile, oferă omenirii cea mai bună cale către valorificarea AI fără teama că aceasta va fi concentrată în mâinile celor puternici. 

Descentralizare = democratizare

Nimeni nu poate prezice unde exact ne va duce AI dacă este lăsat necontrolat. Chiar dacă cele mai grave scenarii de apocalipsa nu se materializează, evoluțiile actuale ale inteligenței artificiale sunt nedemocratice, nedemne de încredere și s-a dovedit că încalcă legile de confidențialitate existente în locuri precum Uniunea Europeană.

Pentru a preveni ca evoluțiile AI să destabilizeze societatea, cel mai eficient mod de a corecta cursul AI este de a impune transparența într-un mediu descentralizat folosind tehnologia blockchain.

Dar abordarea descentralizată nu doar facilitează încrederea prin transparență, ci poate, de asemenea, să stimuleze inovarea printr-o colaborare mai mare, să ofere verificări împotriva supravegherii în masă și a cenzurii, să ofere o mai bună rezistență a rețelei și să se extindă mai eficient prin simpla adăugare de noduri suplimentare în rețea.

Imaginați-vă dacă înregistrarea imuabilă a blockchain-ului ar exista în vremurile biblice, am putea avea un pic mai multă înțelegere și context pentru a analiza și evalua documente istorice semnificative, cum ar fi Manuscrisele de la Marea Moartă. Folosirea blockchain-ului pentru a permite accesul larg la arhive, asigurându-se în același timp că datele lor istorice sunt autentice este o temă care a fost opinată pe scară largă.  

Rețelele centralizate beneficiază de costurile scăzute de coordonare între participanți, deoarece majoritatea funcționează sub o singură entitate centralizată. Cu toate acestea, rețelele descentralizate beneficiază de compensarea costurilor mai mari ale coordonării. Acest lucru înseamnă recompense mai mari pentru stimulente mai granulare bazate pe piață în calcul, date, inferență și alte straturi ale stivei AI.

Descentralizarea eficientă a AI începe cu reimaginarea straturilor care compun stiva AI. Fiecare componentă de la puterea de calcul, date, formarea modelului, reglajul fin și inferența trebuie construită într-un mod coordonat, cu stimulente financiare pentru a asigura calitatea și participarea largă. Aici intervine blockchain-ul, facilitând monetizarea prin proprietate descentralizată, asigurând în același timp o colaborare open-source transparentă și sigură pentru a contracara modelele închise ale Big Tech.

Orice acțiune de reglementare ar trebui să se concentreze pe direcționarea dezvoltării AI pentru a ajuta umanitatea să atingă noi culmi, permițând și încurajând concurența AI. Stabilirea și promovarea IA responsabilă și reglementată este cea mai eficientă atunci când se realizează într-un cadru descentralizat, deoarece distribuția sa de resurse și controlul reduce drastic potențialul său coruptibil - și aceasta este amenințarea supremă AI pe care vrem să o evităm.

În acest moment, societatea recunoaște valoarea AI, precum și multiplele riscuri pe care le oferă. În viitor, dezvoltarea IA trebuie să atingă un echilibru între creșterea eficienței, luând în considerare considerentele etice și de siguranță.

Peter Ionov este autor invitat pentru Cointelegraph și un antreprenor, inginer și inventator ucrainean care conduce și conduce mai multe companii: Robosoft, GT protocol și Ukr Reklama. Peter deschide calea în Web4, robotică și inteligență artificială. Este cunoscut pentru viziunea sa ambițioasă asupra viitorului umanității, care include ideea de „muncă pentru roboți, odihnă pentru oameni” și dezvoltarea de tehnologii care îmbunătățesc viața și stabilitatea oamenilor.

Acest articol are scop informativ general și nu este destinat și nu ar trebui să fie luat drept sfaturi juridice sau de investiții. Părerile, gândurile și opiniile exprimate aici sunt exclusiv ale autorului și nu reflectă sau reprezintă neapărat punctele de vedere și opiniile Cointelegraph.