TLDR:

  • Oamenii de știință AI avertizează despre potențiale rezultate catastrofale dacă oamenii pierd controlul asupra AI

  • Sistemul global de supraveghere și planurile de urgență sunt îndemnate să prevină riscurile AI

  • Trei procese cheie propuse: pregătirea pentru situații de urgență, asigurarea siguranței și cercetare independentă

  • Peste 30 de experți din diverse țări au semnat declarația

  • Îngrijorări ridicate cu privire la lipsa schimburilor științifice între superputeri cu privire la amenințările AI

Experții în inteligență artificială (AI) din întreaga lume au emis un avertisment cu privire la riscurile potențiale asociate cu sistemele AI avansate.

Într-o declarație publicată pe 16 septembrie 2024, peste 30 de oameni de știință din diferite țări, inclusiv Statele Unite, Canada, China și Regatul Unit, au cerut crearea unui sistem global de supraveghere pentru a preveni posibilele „rezultate catastrofale” dacă oamenii pierde controlul AI.

Declarația, care se bazează pe concluziile Dialogului internațional privind siguranța IA de la Veneția, subliniază necesitatea cooperării și guvernării internaționale în dezvoltarea IA.

Oamenii de știință susțin că siguranța AI ar trebui recunoscută ca un bun public global, necesitând eforturi colective pentru a aborda riscurile potențiale.

Una dintre principalele preocupări evidențiate în declarație este posibilitatea de a pierde controlul uman asupra sistemelor AI avansate sau utilizarea lor rău intenționată. Experții avertizează că astfel de scenarii ar putea duce la consecințe grave pentru umanitate.

Ei subliniază că știința necesară pentru a controla și proteja IA foarte avansată nu a fost încă dezvoltată, subliniind urgența abordării acestor probleme.

Pentru a face față acestor provocări, oamenii de știință propun trei procese cheie.

  • În primul rând, solicită înființarea de acorduri și instituții de pregătire pentru situații de urgență. Acest lucru ar implica dezvoltarea autorităților din fiecare țară pentru a detecta și a răspunde incidentelor IA și riscurilor catastrofale. Aceste autorități interne ar lucra apoi împreună pentru a crea un plan global de urgență pentru incidente grave legate de IA.

  • Al doilea proces propus este implementarea unui cadru de asigurare a siguranței. Acest lucru ar necesita dezvoltatorii AI să ofere un caz de siguranță de înaltă încredere înainte de a implementa modele cu capabilități care depășesc pragurile specificate. Cadrul ar include, de asemenea, monitorizarea după implementare și audituri independente pentru a asigura siguranța continuă.

  • În cele din urmă, experții pledează pentru cercetarea globală independentă privind siguranța și verificarea AI. Această cercetare s-ar concentra pe dezvoltarea tehnicilor de verificare riguroasă a afirmațiilor de siguranță făcute de dezvoltatorii de AI și, eventual, de alte națiuni. Pentru a asigura independența, cercetarea ar fi efectuată la nivel global și finanțată de o gamă largă de guverne și filantropi.

Declarația vine într-un moment în care schimburile științifice dintre superputeri se micșorează, iar neîncrederea dintre Statele Unite și China este în creștere. Oamenii de știință susțin că această lipsă de cooperare face mai dificilă obținerea unui consens cu privire la amenințările AI, subliniind și mai mult necesitatea dialogului și colaborării globale.

La începutul lunii septembrie 2024, Statele Unite ale Americii, Uniunea Europeană și Regatul Unit au semnat primul tratat internațional obligatoriu din punct de vedere juridic privind IA. Acest acord acordă prioritate drepturilor omului și răspunderii în reglementarea AI. Cu toate acestea, unele corporații din tehnologie și directori și-au exprimat îngrijorarea că suprareglementarea ar putea înăbuși inovația, în special în Uniunea Europeană.

Grupul de experți în inteligență artificială care a semnat declarația include cercetători din instituții și universități de top în domeniul inteligenței artificiale, precum și câțiva câștigători ai Premiului Turing, care este considerat echivalentul Premiului Nobel în calcul.

Expertiza lor colectivă acordă o pondere semnificativă preocupărilor ridicate și recomandărilor făcute în declarație.

Postarea Protejați umanitatea de AI: experții solicită supraveghere globală pentru a preveni o potențială catastrofă a inteligenței artificiale a apărut mai întâi pe Blockonomi.