Saskaņā ar Cointelegraph teikto, mākslīgā intelekta firmas OpenAI un Anthropic ir vienojušās piešķirt ASV AI drošības institūtam agrīnu piekļuvi visiem nozīmīgiem jauniem AI modeļiem, ko izstrādājuši to attiecīgie uzņēmumi. Šī vienošanās, ko veicina savstarpējas drošības bažas, atstāj nedaudz neskaidru precīzu valdības lomu nozīmīga tehnoloģiskā izrāviena gadījumā.

OpenAI izpilddirektors un līdzdibinātājs Sems Altmens uzsvēra šīs vienošanās nozīmi nesenā ierakstā X sociālo mediju platformā, norādot: “Mēs esam priecīgi, ka esam panākuši vienošanos ar ASV AI drošības institūtu par mūsu nākotnes modeļu pirmsizlaides testēšanu. Daudzu iemeslu dēļ mēs uzskatām, ka ir svarīgi, lai tas notiktu valsts līmenī. ASV ir jāturpina vadīt!

Gan OpenAI, gan Anthropic ir vērsti uz mākslīgā vispārējā intelekta (AGI) izstrādi, AI veidu, kas spēj veikt jebkuru uzdevumu, ko cilvēks var veikt, ņemot vērā nepieciešamos resursus. Katram uzņēmumam ir sava harta un misija, kuras mērķis ir droši izveidot AGI, kuras pamatā ir cilvēces intereses. Ja kāds no uzņēmumiem gūtu panākumus, tie kļūtu par galvenajiem šīs progresīvās tehnoloģijas vārtsargiem. Piekrītot dalīties ar saviem modeļiem ar ASV valdību pirms jebkādu produktu laišanas tirgū, abi uzņēmumi ir faktiski nodevuši daļu no šīs atbildības federālajām iestādēm.

Kā nesen ziņoja Cointelegraph, OpenAI, iespējams, tuvojas izrāvienam ar saviem "Strawberry" un "Orion" projektiem, kuriem, domājams, ir uzlabotas spriešanas spējas un jaunas metodes AI halucināciju problēmas risināšanai. Tiek ziņots, ka ASV valdība jau ir pārskatījusi šos rīkus un agrīnās ChatGPT iterācijas, iekļaujot tos.

ASV Nacionālā standartu un tehnoloģiju institūta emuāra ierakstā norādīts, ka ar šo līgumu saistītās drošības vadlīnijas uzņēmumiem, kas piedalās, ir brīvprātīgi. Šīs vieglās regulējošās pieejas atbalstītāji apgalvo, ka tā veicina izaugsmi un ļauj nozarei pašregulēties. Atbalstītāji, tostarp Altmans, šo līgumu uzskata par paraugu tam, kā sadarbība starp valdību un korporatīvo sektoru var būt abpusēji izdevīga.

Tomēr pastāv bažas par iespējamu pārredzamības trūkumu, kas saistīts ar vieglu regulējumu. Ja OpenAI vai Anthropic sasniedz savus AGI mērķus un valdība nolemj, ka sabiedrība nav jāinformē, šķiet, ka informācijas izpaušanai nav juridisku prasību.