Pašreizējie un bijušie OpenAI darbinieki ir pauduši nopietnas bažas par straujo mākslīgā intelekta attīstību bez pietiekamas uzraudzības. Šie cilvēki norāda uz iespējamām briesmām, kas saistītas ar nekontrolētu AI attīstību. Viņi apgalvo, ka AI uzņēmumiem, tostarp OpenAI, ir spēcīgi finansiāli stimuli, lai izvairītos no efektīvas uzraudzības, kas varētu radīt ievērojamus riskus.

Šo darbinieku atklātajā vēstulē uzsvērta nepieciešamība pēc labākas trauksmes cēlēju aizsardzības. Viņi apgalvo, ka bez šādas aizsardzības darbinieki nevar efektīvi saukt savus uzņēmumus pie atbildības. Vēstulē AI uzņēmumi tiek aicināti ļaut anonīmi ziņot par bažām un atbalstīt atklātas kritikas kultūru.

Google un OpenAI loma AI attīstībā

OpenAI, Google un citi tehnoloģiju giganti ir vadošie AI izstrādē.

Šīs ģeneratīvās AI bruņošanās sacensības ir paredzētas, lai radītu ievērojamus ieņēmumus. Prognozes lēš, ka desmit gadu laikā tirgus varētu sasniegt USD 1 triljonu. Tomēr šī straujā attīstība ir saistīta ar būtiskiem riskiem. Iekšējā informācija uzsver, ka šiem uzņēmumiem ir daudz nepubliskas informācijas par to tehnoloģiju iespējām. Viņi arī uzsver bažas par drošības pasākumiem, ar kuriem viņiem nav pienākuma dalīties.

Atklātajā vēstulē uzsvērts, ka šiem uzņēmumiem pašlaik ir minimāls pienākums atklāt valdībām būtisku drošības informāciju. Viņiem ir arī minimāls pienākums izpaust šo informāciju sabiedrībai. Šis pārredzamības trūkums rada bažas par iespējamu mākslīgā intelekta tehnoloģijas ļaunprātīgu izmantošanu un ar to saistītajiem riskiem.

OpenAI darbinieku izceltās briesmas

AI tehnoloģijas briesmas ir daudzpusīgas. OpenAI un Google DeepMind darbinieki ir norādījuši uz riskiem, sākot no dezinformācijas izplatības un beidzot ar iespējamu kontroles pār autonomajām sistēmām zaudēšanu. Pastāv arī ārkārtējs risks, ka mākslīgā intelekta tehnoloģija var izraisīt cilvēku izzušanu, ja tā netiek pareizi pārvaldīta.

Lūgumrakstā ar nosaukumu “Tiesības brīdināt AI” AI uzņēmumi tiek aicināti ļaut darbiniekiem izteikt ar risku saistītas bažas gan iekšēji, gan sabiedrībai. Parakstītāji apgalvo, ka finansiālie motīvi bieži mudina uzņēmumus par prioritāti uzskatīt produktu attīstību, nevis drošību, tādējādi apdraudot uzraudzības procesus.

Grupa pašreizējo un bijušo OpenAI darbinieku, no kuriem daži ir anonīmi, kopā ar Jošua Bendžo, Džefriju Hintonu un Stjuartu Raselu šorīt ir publicējuši atklātu vēstuli ar nosaukumu “Tiesības brīdināt par progresīvu mākslīgo intelektu”.https:// t.co/uQ3otSQyDA pic.twitter.com/QnhbUg8WsU

— Endrjū Kurans (@AndrewCurran_) 2024. gada 4. jūnijs

Aicina veikt iekšējās izmaiņas OpenAI

Darbinieki mudina OpenAI un citus AI uzņēmumus ieviest sistēmas, kas ļauj anonīmi ziņot par drošības problēmām. Viņi iestājas par ierobežojošu neizpaušanas līgumu atcelšanu, kas neļauj darbiniekiem runāt par iespējamām briesmām. Šīs izmaiņas tiek uzskatītas par būtiskām, lai veicinātu drošāku AI izstrādes vidi.

Bijušais OpenAI darbinieks Viljams Saunderss uzsvēra, ka tie, kuriem ir visvairāk zināšanu par mākslīgā intelekta sistēmu potenciālajiem apdraudējumiem, bieži vien nespēj dalīties savās atziņās, jo baidās no sekām. Šī slepenība neļauj sabiedrībai un regulatoriem sasniegt būtisku informāciju par AI riskiem.

Atbildes un strīdi

OpenAI ir atzinis drošības nozīmi AI attīstībā. Tomēr nesenās darbības, piemēram, Superalignment drošības komandas likvidēšana, ir radījusi šaubas par viņu apņemšanos ievērot šo principu. Kopš tā laika OpenAI ir izveidojusi Drošības un drošības komiteju, lai risinātu šīs bažas.

Neskatoties uz šiem centieniem, OpenAI vadību un pieeju drošībai joprojām ieskauj pretrunas. Uzņēmums ir saskāries ar iekšējiem konfliktiem, tostarp izpilddirektora Sema Altmena atstādināšanu no amata pārredzamības problēmu dēļ. Šie notikumi uzsver pastāvīgās problēmas, lai līdzsvarotu ātrās AI inovācijas ar nepieciešamajiem drošības pasākumiem.

Noslēgumā jāsaka, ka, lai gan AI tehnoloģijas sola ievērojamus sasniegumus, OpenAI un Google darbinieku paustās bažas liecina, ka steidzami ir nepieciešama labāka pārraudzība un pārredzamība. AI sistēmu drošības nodrošināšanai ir jābūt prioritātei, lai mazinātu iespējamos riskus un aizsargātu nākotni.