Vairāki pašreizējie un bijušie OpenAI un Google DeepMind darbinieki apsūdzēja savus uzņēmumus AI risku slēpšanā, kas varētu izraisīt cilvēku izmiršanu. Atklātā vēstulē darbinieki apgalvoja, ka AI uzņēmumi pirmajā vietā izvirza peļņu, vienlaikus izvairoties no "efektīvas [valdības] uzraudzības".

Lasiet arī: OpenAI piedāvā GPT-4 pēcteci, ņemot vērā bažas par drošību

Atklāto vēstuli parakstīja 11 bijušie OpenAI darbinieki, divi no Google DeepMind, un to apstiprināja “AI krusttēvs” Džefrijs Hintons, agrākais Google darbinieks. Tajā teikts, ka peļņas gūšanas motīvi un regulējuma nepilnības ļauj uzņēmumiem slēpt draudus, ko rada uzlabotais mākslīgais intelekts.

AI var izraisīt "cilvēka izmiršanu"

Saskaņā ar vēstuli AI uzņēmumi, piemēram, OpenAI un Google DeepMind, Gemini radītājs, nav publiski dalījušies ar informāciju par savu sistēmu nepietiekamajiem drošības pasākumiem un riska līmeņiem, jo ​​viņiem tas nav jādara.

Bez regulatīvās uzraudzības AI programmas var nodarīt lielu kaitējumu cilvēkiem. Darbinieki brīdināja:

"Šie riski svārstās no esošās nevienlīdzības tālākas nostiprināšanās... līdz kontroles zaudēšanai pār autonomām AI sistēmām, kas var izraisīt cilvēku izzušanu."

Kā atzīmēja vēstules parakstītāji, AI uzņēmumi paši ir atzinuši šos riskus. 2023. gada maijā OpenAI, Anthropic un Google DeepMind vadītāji kopīgi parakstīja AI drošības centra atklātu vēstuli. Vēstulē vienkārši bija teikts: "AI izraisītā izzušanas riska mazināšanai ir jābūt globālai prioritātei līdzās citiem sabiedrības mēroga riskiem, piemēram, pandēmijām un kodolkaram."

AI uzņēmumi arvien vairāk tiek pārbaudīti, lai meklētu jaunus produktus un gūtu peļņu, nevis drošību un drošību. ChatGPT veidotājs OpenAI atzīmēja vēstulē paustās bažas un teica, ka strādā, lai izstrādātu drošu mākslīgo intelektu.

“Mēs lepojamies ar mūsu sasniegumiem, nodrošinot visspējīgāko un drošāko A.I. sistēmām un ticēt mūsu zinātniskajai pieejai riska novēršanai,” New York Times sacīja OpenAI pārstāve Lindsija Helda.

"Mēs piekrītam, ka stingras debates ir ļoti svarīgas, ņemot vērā šīs tehnoloģijas nozīmi, un mēs turpināsim sadarboties ar valdībām, pilsonisko sabiedrību un citām kopienām visā pasaulē."

Trauksmes cēlēji baidās no atriebības

Bijušie OpenAI un Google darbinieki sacīja, ka vēlētos pildīt pārraudzības lomu, kamēr regulatori izstrādā likumus, kas liek AI izstrādātājiem publiski atklāt vairāk informācijas par savām programmām.

Tomēr konfidencialitātes līgumi un darba devēju atriebības iespējamība attur darbiniekus publiski paust savas bažas. Pēc vēstules:

"Daži no mums pamatoti baidās no dažāda veida atriebības, ņemot vērā šādu gadījumu vēsturi visā nozarē. Mēs neesam pirmie, kas saskaras ar šiem jautājumiem vai runā par tiem.

Trauksmes cēlēji ASV ir aizsargāti ar likumu, bet tie, kas runā par mākslīgā intelekta briesmām, netiek segti, jo tehnoloģija vēl nav reglamentēta.

Lasiet arī: ChatGPT joprojām izplata viltus, saka EU Data Watchdog

Vēstulē AI uzņēmumi tika aicināti veicināt pārbaudāmi anonīmu atgriezenisko saiti, atbalstīt atklātas kritikas kultūru un neveikt atriebību trauksmes cēlējiem.

AI pētnieks Lenss B. Eliots sacīja, ka uzņēmumi kritikai izmanto burkāna un nūjas pieeju. Darbinieki, kuri nerunā pret riskiem, tiek apbalvoti ar paaugstināšanu amatā un algas paaugstināšanu.

No otras puses, trauksmes cēlēji un kritiķi zaudē savas akciju opcijas, un viņi var tikt spiesti pamest uzņēmumu un klusi iekļaut AI vadītāju kopienas melnajā sarakstā.

Džefrija Gogo kriptopolītiskie ziņojumi