Vitalik Buterin Tragerea de Alarmă: Amenințarea Iminentă a AI Superinteligent

Imaginează-ți o lume în care inteligența artificială depășește inteligența umană, ducând la rezultate catastrofale, inclusiv posibilitatea extincției umane. Aceasta nu este o scenă dintr-un film științifico-fantastic; este o preocupare reală ridicată de co-fondatorul Ethereum, Vitalik Buterin. Pe măsură ce tehnologia AI avansează rapid, Buterin îndeamnă lumea să acționeze și să dezvolte un mecanism de apărare puternic împotriva riscurilor asociate cu AI superinteligent.

Riscurile Creșterii Necontrolate a AI

Avertizările lui Buterin vin într-un moment în care îngrijorările legate de siguranța AI cresc exponențial. Într-o postare recentă pe blog, el și-a expus conceptul de „d/acc sau accelerare defensivă”, care subliniază necesitatea ca tehnologia să fie dezvoltată cu apărarea în minte, mai degrabă decât să se concentreze exclusiv pe progres. Aceasta nu este prima dată când Buterin vorbește despre riscurile AI; în 2023, el a evidențiat potențialul AI de a provoca extincția umană.

O Cronologie de Trei Ani pentru Superinteligență

Avertizările recente ale lui Buterin sunt mai presante ca niciodată, deoarece el crede că superinteligența ar putea fi la doar câțiva ani distanță. „Se pare că avem cronologii de trei ani până la AGI și încă trei ani până la superinteligență”, a scris el. Această cronologie subliniază necesitatea unei acțiuni imediate pentru a atenua riscurile legate de AI.

Sisteme AI Descentralizate: O Potențială Soluție

Pentru a minimiza amenințarea rezultatelor catastrofale, Buterin pledează pentru crearea de sisteme AI descentralizate care rămân strâns legate de deciziile umane. Asigurându-ne că AI rămâne un instrument în mâinile oamenilor, putem reduce riscul de consecințe devastatoare.

Rolul Militarilor în Reglementarea AI

Buterin subliniază, de asemenea, riscurile potențiale asociate cu utilizarea militară a AI, care este în creștere la nivel global. El crede că orice reglementare a AI ar putea exonera militarile, făcându-le o amenințare semnificativă. Acest lucru ridică întrebări importante despre necesitatea cooperării internaționale și a reglementării în dezvoltarea și utilizarea AI.

Un Plan în Trei Pași pentru a Reglementa AI

Buterin propune un plan în trei pași pentru a reglementa utilizarea AI:

1. Responsabilitate: Faceți utilizatorii responsabili pentru consecințele utilizării AI. Prin tragerea la răspundere a utilizatorilor, putem încuraja dezvoltarea și desfășurarea mai responsabilă a AI. 2. Butoane de Pauză Blânde: Implementați butoane de „pauză blândă” care permit reglementarea AI să încetinească ritmul avansărilor potențial periculoase. Acest lucru ar putea implica reducerea capacității globale de calcul cu 90-99% timp de 1-2 ani pentru a câștiga timp pentru ca umanitatea să se pregătească. 3. Control Internațional: Controlați hardware-ul AI prin echiparea acestuia cu un cip care necesită trei semnături de la organisme internaționale săptămânal, inclusiv cel puțin un organism neafiliat militar.

Soluții Temporare, Nu Soluții Permanente

Buterin recunoaște că strategiile sale au lacune și sunt doar soluții temporare. Cu toate acestea, el subliniază necesitatea unei acțiuni imediate pentru a atenua riscurile legate de AI.

Pe măsură ce lumea se îndreaptă spre un viitor în care AI depășește inteligența umană, este esențial să luăm în serios avertizările lui Buterin. Vom reuși să dezvoltăm un mecanism de apărare puternic împotriva riscurilor asociate cu AI superinteligent, sau vom ceda pericolelor creșterii necontrolate a AI? Ceasul ticăie.

Sursa: Beincrypto.com

Postarea Planul de Reglementare a AI al lui Vitalik Buterin: Responsabilitate & Control a apărut prima dată pe CoinBuzzFeed.