Saskaņā ar Wall Street Journal, OpenAI, uzņēmums, kas ir atbildīgs par ChatGPT izstrādi, nesen cieta nopietnu drošības pārkāpumu, kas radīja bažas par iespējamiem valsts drošības riskiem. Incidents, kas notika pagājušā gada sākumā, atklāja iekšējās diskusijas pētnieku un darbinieku vidū, taču tas neapdraudēja OpenAI sistēmas galveno kodu. Neskatoties uz incidenta nopietnību, OpenAI izvēlējās incidentu publiski neizpaust, un šis lēmums izraisīja iekšēju un ārēju pārbaudi.

OpenAI iekšējā komunikācija ir apdraudēta

2023. gada sākumā hakeris ielauzās OpenAI iekšējā ziņojumapmaiņas sistēmā un ieguva informāciju par uzņēmuma AI tehnoloģiju. Saskaņā ar divu cilvēku, kas pārzina šo lietu, teikto, hakeri apmeklēja tiešsaistes forumu, kurā darbinieki apsprieda jaunākos AI sasniegumus, taču neielauzās sistēmā, kurā tiek glabāta galvenā tehnoloģija.

OpenAI vadītāji izvēlas to neizpaust sabiedrībai

Saskaņā ar avotiem, OpenAI vadītāji informēja darbiniekus par šo lietu visaptverošā sanāksmē, kas notika uzņēmuma galvenajā mītnē Sanfrancisko 2023. gada aprīlī, un tika informēta arī direktoru padome. Neskatoties uz pārkāpumu, vadītāji izvēlējās neinformēt sabiedrību, atsaucoties uz to, ka netika apdraudēta neviena klienta vai partnera informācija. Viņi novērtēja, ka hakeris bija persona, kurai nav saistību ar ārvalstu valdību, un neziņoja par šo lietu tiesībaizsardzības iestādēm, tostarp FIB.

Pieaug bažas par ārvalstu spiegošanu

Pārkāpums pastiprināja OpenAI darbinieku bažas, ka ārvalstu pretinieki, īpaši Ķīna, var nozagt AI tehnoloģiju un apdraudēt ASV nacionālo drošību. Incidents arī izraisīja diskusijas uzņēmumā par OpenAI drošības pasākumu atbilstību, kā arī plašākiem riskiem, kas saistīti ar mākslīgo intelektu.

Parādās AI drošības problēmas

Pēc incidenta OpenAI tehnisko projektu vadītājs Leopolds Ašenbrenners iesniedza valdei piezīmi, paužot bažas par uzņēmuma neaizsargātību pret ārvalstu subjektu spiegošanu. Vēlāk Ašenbreners tika atlaists iespējamās informācijas noplūdes dēļ. Viņš uzskata, ka uzņēmuma drošības pasākumi ir nepietiekami, lai aizsargātu pret sarežģītiem ārvalstu dalībnieku draudiem.

Oficiālais paziņojums no OpenAI

OpenAI pārstāve Liza Buržuā atzina Ašenbrenera bažas, taču sacīja, ka viņa aiziešana nav saistīta ar viņa izvirzītajām problēmām. Viņa uzsvēra, ka OpenAI ir apņēmusies izveidot drošu mākslīgo vispārējo intelektu (AGI), taču nepiekrita Ašenbrenera vērtējumam par tā drošības protokoliem.

Tehnoloģiskā spiegošana Ķīnas un Amerikas kara kontekstā

Bažas par iespējamām saitēm ar Ķīnu nav nepamatotas. Piemēram, Microsoft prezidents Breds Smits nesen liecināja, ka Ķīnas hakeri izmantoja uzņēmuma sistēmas, lai uzbruktu federālajiem tīkliem. Tomēr juridiskie ierobežojumi aizliedz OpenAI diskriminēt pieņemšanu darbā, pamatojoties uz valsts izcelsmi, jo ārvalstu talantu bloķēšana var kavēt ASV AI progresu.

(No DEI vai MEI: Kāpēc mākslīgā intelekta vienradža ScaleAI darbā pieņemšanas politika liek Muskam un Coinbase bieži pamāj?)

Dažādu talantu nozīme

Mets Naits, OpenAI drošības nodaļas vadītājs, uzsvēra, ka, neskatoties uz riskiem, ir nepieciešams piesaistīt labākos globālos talantus. Viņš uzsvēra, cik svarīgi ir panākt līdzsvaru starp drošības apsvērumiem un nepieciešamību pēc novatoriskas domāšanas, lai attīstītu AI tehnoloģiju.

Visa AI nozare saskaras ar izaicinājumiem

OpenAI nav vienīgais uzņēmums, kas saskaras ar šiem izaicinājumiem. Konkurenti, piemēram, Meta un Google, arī izstrādā jaudīgas mākslīgā intelekta sistēmas, no kurām dažas ir atvērtā pirmkoda, veicinot pārredzamību un kolektīvu problēmu risināšanu nozarē. Tomēr joprojām pastāv bažas par AI izmantošanu, lai maldinātu informāciju un aizstātu darbavietas.

Nacionālās drošības riska novērtējums: mākslīgais intelekts var radīt bioloģiskos un ķīmiskos ieročus

Dažos AI uzņēmumu, piemēram, OpenAI un Anthropic, pētījumos ir konstatēts, ka pašreizējā AI tehnoloģija rada nelielu risku valsts drošībai. Tomēr turpinās diskusijas par mākslīgā intelekta potenciālu nākotnē radīt bioloģiskos un ķīmiskos ieročus vai uzlauzt valdības sistēmas. Uzņēmumi, piemēram, OpenAI un Anthropic, aktīvi risina šīs problēmas, nostiprinot savus drošības protokolus un izveidojot komitejas, kas koncentrējas uz AI drošību.

Valdības likumdošanas darbība: ierobežojumi noteiktām mākslīgā intelekta tehnoloģijām

Federālie un štatu likumdevēji apsver noteikumus, kas ierobežotu noteiktu AI tehnoloģiju izlaišanu un sodītu par kaitīgu izmantošanu. Noteikumi ir paredzēti, lai samazinātu ilgtermiņa riskus, lai gan eksperti uzskata, ka joprojām būs vajadzīgi gadi, līdz parādīsies ievērojamas AI radītās briesmas.

Ķīnas progress AI jomā

Ķīnas uzņēmumi strauji progresē AI tehnoloģiju jomā, un Ķīna ir mājvieta daudziem pasaules labākajiem mākslīgā intelekta pētniekiem. Eksperti, piemēram, Clément Delangue no Hugging Face uzskata, ka Ķīna drīzumā varētu pārspēt ASV AI spēju ziņā.

Aiciniet uz atbildīgu AI attīstību

Pat ja pašreizējās izredzes ir zemas, tādi prominenti skaitļi kā Sjūzena Raisa aicina nopietni apsvērt vissliktākos AI scenārijus, uzsverot atbildību novērst potenciāli lielas ietekmes riskus.

Šis raksts Wall Street Journal: Hackers iebruka OpenAI, radot bažas par valsts drošību, pirmo reizi parādījās vietnē Chain News ABMedia.