David Brin, autorul de science fiction câștigător al lui Hugo și Nebula din spatele romanelor Uplift și Poștașul, a conceput un plan pentru a combate amenințarea existențială a inteligenței artificiale necinstite.

El spune că un singur lucru a funcționat vreodată în istorie pentru a reduce comportamentul rău al răufăcătorilor. Nu le cere frumos și nu creează coduri etice sau panouri de siguranță.

Se numește responsabilitate reciprocă și el crede că va funcționa și pentru AI.

Împuterniciți indivizii să-și tragă la răspundere reciproc. Știm să facem asta destul de bine. Și dacă putem face ca AI să facă asta, s-ar putea să ne aștepte o aterizare ușoară, spune el pentru Magazine.

Sic-i unul pe altul. Fă-i să concureze, chiar și zvâcnind sau fluierându-i unul pe celălalt.

Desigur, este mai ușor de spus decât de făcut.

Magazine a discutat cu Brin după ce acesta a făcut o prezentare despre ideea sa la recenta Conferință Beneficial Artificial General Intelligence (AGI) din Panama. Este cu ușurință cel mai bine primit discurs de la conferință, întâmpinat cu hoop și aplauze.

David Brin la conferința Beneficial AGI din Panama. (Fenton)

Brin pune știința în știință ficțiune. Scriitor, are un doctorat în astronomie și este consultant pentru NASA. A fi autor a fost a doua alegere a mea de viață după ce am devenit om de știință, spune el, dar civilizația pare să fi insistat că sunt un scriitor mai bun decât un fizician.

Cărțile sale au fost traduse în 24 de limbi, deși numele său va fi legat pentru totdeauna de bomba de box office de Kevin Costner, The Postman. Nu e vina lui, totuși; romanul original a câștigat premiul Locus pentru cel mai bun roman științifico-fantastic.

Susținător al confidențialității și al transparenței

Un autor după inima comunităților cripto, Brin a vorbit despre transparență și supraveghere încă de la mijlocul anilor 1990, mai întâi într-un articol fundamental pentru Wired pe care l-a transformat într-o carte de non-ficțiune numită The Transparent Society în 1998.

„Este considerat un clasic în unele cercuri, spune el.

În lucrare, Brin a prezis că noua tehnologie va eroda intimitatea și că singura modalitate de a proteja drepturile individuale ar fi să ofere tuturor posibilitatea de a detecta când drepturile lor sunt abuzate.

El a propus o societate transparentă în care cei mai mulți oameni știu ce se întâmplă de cele mai multe ori, permițând celor urmăriți să urmărească observatorii. Această idee a prefigurat transparența și imuabilitatea blockchain-ului.

Într-un pic de simetrie, gândurile sale inițiale despre stimularea AI-urilor să se supravegheze reciproc au fost expuse pentru prima dată într-un alt articol Wired anul trecut, care a stat la baza discursului său și pe care în prezent este în proces de transformare într-o carte.

David Brin într-o conversație cu Magazine. (Fenton) Istoria arată cum să-i învingi pe tiranii inteligenței artificiale

Un pasionat student al istoriei, Brin crede că science fiction ar trebui redenumită istorie speculativă.

El spune că există o singură poveste profund emoționantă, dramatică și terifiantă: lupta îndelungată a omenirii pentru a-și ieși din noroi, cei 6.000 de ani de feudalism și oamenii care își sacrifică copiii lui Baal care au caracterizat civilizația timpurie.

Dar odată cu democrația timpurie la Atena și apoi la Florența, Adam Smith teoreticează politic în Scoția și odată cu Revoluția Americană, oamenii au dezvoltat noi sisteme care le-au permis să se elibereze.

Și ce a fost fundamental? Nu lăsați puterea să se acumuleze. Dacă găsești o modalitate de a-i duce pe elitele la gât, ei vor fi prea ocupați pentru a te asupri.

Un singur lucru a funcționat vreodată în istorie pentru a îmblânzi tiranii puternici. (Fenton) Inteligența artificială: ființe prădătoare hiperinteligente

Indiferent de amenințarea din partea inteligenței artificiale, avem deja o civilizație plină de ființe prădătoare hiperinteligente, spune Brin, făcând o pauză înainte de a adăuga: se numesc avocați.

În afară de o mică glumă drăguță, este și o analogie bună prin faptul că oamenii obișnuiți nu se potrivesc avocaților, mult mai puține AI.

Ce faci in cazul asta? Îți angajezi propriul avocat prădător hiper-inteligent. Îi puneți unul pe celălalt. Nu trebuie să înțelegi legea la fel de bine ca avocatul pentru a avea un agent care este un avocat de partea ta.

Același lucru este valabil și pentru cei ultraputernici și bogați. Deși este dificil pentru o persoană obișnuită să-l tragă la răspundere pe Elon Musk, un alt miliardar precum Jeff Bezos ar avea o șansă.  

Deci, putem aplica aceeași teorie pentru a determina AI să se tragă reciproc la răspundere? Ar putea fi, de fapt, singura noastră opțiune, deoarece inteligența și capacitățile lor pot crește cu mult peste ceea ce mintea umană poate chiar concepe.

Este singurul model care a funcționat vreodată. Nu garantez că va funcționa cu AI. Dar ceea ce încerc să spun este că este singurul model care poate.

Citește și Caracteristici Cele mai bune (și cele mai proaste) povești din cei 3 ani de reviste Cointelegraph Caracteristici Cum investesc oamenii inteligenți în memecoins stupide: plan în 3 puncte pentru succes Individualizarea inteligenței artificiale

Există totuși o mare problemă cu ideea. Toate mecanismele noastre de responsabilitate se bazează în cele din urmă pe responsabilizarea persoanelor.

Deci, pentru ca ideea lui Brins să funcționeze, AI-urile ar trebui să aibă un simț al propriei individualități, adică ceva de pierdut din comportamentul prost și ceva de câștigat din a ajuta poliția care încalcă regulile AI necinstiți.

Ei trebuie să fie persoane care pot fi de fapt trase la răspundere. Cine poate fi motivat de recompense și descurajat de pedepse, spune el.  

Stimulentele nu sunt prea greu de înțeles. Este posibil ca oamenii să controleze lumea fizică timp de decenii, astfel încât IA ar putea fi recompensate cu mai multă memorie, putere de procesare sau acces la resurse fizice.

Și dacă avem această putere, putem recompensa programele individualizate care cel puțin par să ne ajute împotriva altora care sunt răuvoitori.

Dar cum putem face ca entitățile AI să se unească în indivizi separați, definiți în mod discret, cu forță competitivă relativ egală?

Brin propune ancorarea AI-urilor în lumea reală și înregistrarea lor prin blockchain. (Fenton)

Cu toate acestea, răspunsul lui Brins se îndreaptă spre domeniul science fiction-ului. El propune ca o componentă de bază a AI să fie un nucleu suflet, așa cum o numește el, să fie păstrată într-o locație fizică specifică, chiar dacă marea majoritate a sistemului rulează în cloud. Nucleul de suflet ar avea un ID unic de înregistrare înregistrat pe un blockchain, care ar putea fi retras în cazul unui comportament rău.

Ar fi extrem de dificil să reglementezi o astfel de schemă la nivel mondial, dar dacă suficiente corporații și organizații refuză să desfășoare afaceri cu AI neînregistrate, sistemul ar putea fi eficient.

Orice IA fără un nucleu de suflet înregistrat ar deveni un haiduc și ocolit de societatea respectabilă.

Aceasta duce la a doua mare problemă cu ideea. Odată ce un AI este un haiduc (sau pentru cei care nu s-au înregistrat niciodată), ne vom pierde orice efect asupra lui.

Este ideea de a stimula IA buni să lupte cu cei necinstiți?

Nu garantez că toate acestea vor funcționa. Tot ce spun este că asta a funcționat.

Trei legi ale roboticii și alinierea AI

Brin a continuat trilogia Fundației lui Isaac Asimov.

Brin a continuat lucrul lui Isaac Asimov cu Foundations Triumph în 1999, așa că ați putea crede că soluția lui la problema de aliniere a implicat ca Asimov să conecteze trei legi ale roboticii în IA.

Cele trei reguli spun, practic, că roboții nu pot face rău oamenilor sau nu pot permite răul să vină asupra oamenilor. Dar Brin nu crede că cele trei legi ale roboticii au vreo șansă de a funcționa. Pentru început, nimeni nu face niciun efort serios pentru a le implementa.

Isaac a presupus că oamenii ar fi atât de speriați de roboți în anii 1970 și 80, deoarece scria în anii 1940 că vor insista ca sume mari de bani să fie folosite în crearea acestor programe de control. Oamenii nu sunt atât de speriați pe cât se aștepta Isaac să fie. Prin urmare, companiile care inventează aceste IA nu cheltuiesc acești bani.

O problemă mai fundamentală este că Brin spune că Asimov însuși a realizat că cele trei legi nu ar funcționa. 

Unul dintre personajele roboților lui Asimov, numit Giskard, a conceput o lege suplimentară cunoscută sub numele de Legea Zeroth, care le permite roboților să facă orice ei raționalizează ca fiind în interesul umanității pe termen lung.

Un robot nu poate dăuna umanității sau, prin inacțiune, poate permite umanității să facă rău.

Așadar, la fel ca avocații de mediu care au interpretat cu succes dreptul omului la confidențialitate în moduri creative pentru a forța acțiunea împotriva schimbărilor climatice, roboții suficient de avansați ar putea interpreta cele trei legi în orice fel au ales.

Deci asta nu va merge.

Isaac Asimovs Trei legi ale roboticii (World of Engineering, X)

În timp ce se îndoiește că apelarea la roboți pentru naturi mai bune va funcționa, Brin crede că ar trebui să le imprimăm IA beneficiile de a ne ține în preajmă.

Cred că este foarte important să transmitem noilor noștri copii, inteligența artificială, că o singură civilizație le-a creat vreodată, spune el, adăugând că civilizația noastră stă pe cei care au venit înaintea ei, la fel cum AI stă pe umerii noștri. .

Dacă AI are vreo înțelepciune, ei vor ști că să ne țină pe umeri este probabil o idee bună. Oricât de deștepți devin ei decât noi. Nu este înțelept să rănești ecosistemul care te-a creat.

Abonare Cele mai captivante lecturi din blockchain. Livrat o data pe saptamana.

Adresa de e-mail

ABONATI-VA