Un grup de oameni de știință în domeniul inteligenței artificiale îndeamnă națiunile să creeze un sistem global de supraveghere pentru a preveni potențiale „rezultate catastrofale” dacă oamenii pierd controlul asupra AI.

Într-o declarație publicată pe 16 septembrie, un grup de oameni de știință influenți din inteligența artificială și-au exprimat îngrijorarea că tehnologia pe care au ajutat-o ​​să o dezvolte ar putea provoca vătămări grave dacă controlul uman este pierdut. 

„Pierderea controlului uman sau utilizarea rău intenționată a acestor sisteme AI ar putea duce la rezultate catastrofale pentru întreaga umanitate”, se arată în declarație înainte de a continua: 

„Din păcate, nu am dezvoltat încă știința necesară pentru a controla și proteja utilizarea unei astfel de inteligențe avansate.”

Oamenii de știință au convenit că națiunile trebuie să dezvolte autorități care să detecteze și să răspundă incidentelor AI și riscurilor catastrofale din jurisdicțiile lor și că trebuie dezvoltat un „plan de urgență global”. 

„Pe termen lung, statele ar trebui să dezvolte un regim internațional de guvernanță pentru a preveni dezvoltarea de modele care ar putea prezenta riscuri catastrofale globale.”

Declarația se bazează pe concluziile Dialogului internațional privind siguranța AI de la Veneția, la începutul lunii septembrie, a treia întâlnire de acest gen organizată de grupul de cercetare nonprofit din SUA Safe AI Forum.

Profesorul de la Universitatea Johns Hopkins, Gillian Hadfield, care a împărtășit declarația într-o postare pe X, a spus: „Dacă am avut un fel de catastrofă peste șase luni, dacă detectăm că există modele care încep să se auto-îmbunătățească în mod autonom, care sunt ai de gând să suni?” 

Sursa: Gillian Hadfield

Ei au afirmat că siguranța AI este recunoscută ca un bun public global, necesitând cooperare și guvernanță internațională. 

Dezvoltatorii AI au propus trei procese cheie: acorduri și instituții de pregătire pentru situații de urgență, un cadru de asigurare a siguranței și cercetare globală independentă de verificare și siguranță a AI.

Declarația a avut peste 30 de semnatari din Statele Unite, Canada, China, Marea Britanie, Singapore și alte țări. Grupul era alcătuit din experți de la instituții de cercetare și universități de top în domeniul inteligenței artificiale și mai mulți câștigători ai Premiului Turing, echivalentul Premiului Nobel pentru calcul. 

Oamenii de știință au spus că dialogul a fost necesar din cauza scăderii schimburilor științifice dintre superputeri și a neîncrederii tot mai mari dintre SUA și China, adăugând la dificultatea de a obține un consens cu privire la amenințările AI.

La începutul lunii septembrie, SUA, UE și Regatul Unit au semnat primul tratat internațional obligatoriu din punct de vedere juridic din lume, acordând prioritate drepturilor omului și răspunderii în reglementarea AI.

Cu toate acestea, corporațiile și directorii din domeniul tehnologiei au spus că reglementarea excesivă ar putea înăbuși inovația, în special în Uniunea Europeană. 

Revista: Planul „peisajului iadului” de dronă AI pentru Taiwan, LLM-uri prea proști pentru a distruge umanitatea: AI Eye