Co-fondatorul Ethereum, Vitalik Buterin, și-a exprimat îngrijorarea cu privire la dezvoltarea rapidă a inteligenței artificiale (AI), avertizând că AI superinteligent ar putea apărea mai devreme decât se aștepta. Buterin subliniază necesitatea urgentă a strategiilor pentru a contracara riscurile potențiale, concentrându-se pe ceea ce el numește "accelerație defensivă" pentru a asigura utilizarea responsabilă a tehnologiei AI.
Într-o postare pe blog din 5 ianuarie, Buterin și-a expus propunerile pentru a preveni avansurile dăunătoare în AI. El pledează pentru sisteme AI descentralizate strâns legate de deciziile umane, având ca scop reducerea riscurilor de utilizare greșită, în special de către forțele militare. El subliniază tendința globală în creștere a AI în război, citând exemple precum desfășurarea acesteia în Ucraina și Gaza, și avertizează că excepțiile militare în reglementările AI ar putea reprezenta amenințări semnificative.
Buterin estimează că inteligența artificială generală (AGI) ar putea fi la doar trei ani distanță, cu superinteligența apărând potențial trei ani după aceea. El subliniază că umanitatea nu poate doar să accelereze avansurile benefice, ci trebuie, de asemenea, să încetinească activ dezvoltările dăunătoare. El descrie un scenariu în care AI-ul necontrolat ar putea duce la rezultate catastrofale, inclusiv posibilitatea extincției umane.
Pentru a aborda aceste riscuri, Buterin sugerează mai multe măsuri. În primul rând, el solicită reguli de răspundere pentru a-i face pe utilizatori responsabili de modul în care sunt utilizate sistemele AI. Deși recunoaște complexitatea legării dezvoltării AI de utilizarea sa, el susține că utilizatorii finali decid în cele din urmă aplicațiile tehnologiei.
Dacă măsurile de răspundere se dovedesc insuficiente, Buterin propune mecanisme de "pauză blândă". Acestea ar încetini temporar dezvoltarea sistemelor AI periculoase, posibil prin reducerea capacității globale de calcul cu 90-99% timp de unu până la două ani în perioade critice. Acest lucru ar oferi umanității timp să se pregătească pentru provocările emergente.
O altă sugestie cheie implică controlul hardware-ului AI. Buterin propune integrarea de cipuri în sistemele AI care necesită autorizare săptămânală din partea a trei organisme internaționale, cu cel puțin unul fiind non-militar. Această măsură are scopul de a menține supravegherea globală și de a preveni utilizarea greșită.
În ciuda prezentării acestor idei, Buterin recunoaște că strategiile sale sunt temporare și imperfecte. Cu toate acestea, el insistă că acțiunea imediată este necesară pentru a gestiona riscurile generate de tehnologiile AI care avansează rapid.
Avertismentele lui Buterin vin într-un moment de îngrijorare crescândă cu privire la siguranța AI, evidențiind necesitatea cooperării globale pentru a aborda aceste probleme urgente. Asigurându-se că AI rămâne sub control uman, riscurile unor rezultate catastrofale pot fi minimizate, dar realizarea acestui lucru va necesita un efort colectiv și vigilență.