TLDR

  • OpenAI 2023. gada sākumā piedzīvoja drošības pārkāpumu, kad hakeris ieguva piekļuvi iekšējām ziņojumapmaiņas sistēmām

  • Hakeris no darbinieku diskusijām nozaga informāciju par OpenAI AI tehnoloģiju dizainu, bet ne AI galveno kodu.

  • OpenAI publiski neatklāja uzlaušanu un neziņoja par to tiesībaizsardzības iestādēm, uzskatot, ka tas nav valsts drošības apdraudējums

  • Šis incidents radīja bažas dažu darbinieku vidū par iespējamu neaizsargātību pret ārvalstu pretiniekiem, piemēram, Ķīnu

  • Pārkāpums ir izraisījis diskusijas par AI drošību, pārredzamību un iespējamo ietekmi uz nacionālo drošību

Ir atklājies, ka OpenAI, ChatGPT radītājs, 2023. gada sākumā cieta nozīmīgu drošības pārkāpumu.

Saskaņā ar New York Times ziņojumu, hakeris ieguva piekļuvi uzņēmuma iekšējām ziņojumapmaiņas sistēmām un nozaga informāciju par OpenAI mākslīgā intelekta tehnoloģiju dizainu.

Pārkāpums, kas notika 2023. gada aprīlī, ļāva iebrucējam piekļūt tiešsaistes forumam, kurā darbinieki apsprieda OpenAI jaunākās tehnoloģijas.

Lai gan hakeris neiekļuva sistēmās, kurās uzņēmums izvieto un veido savu AI, viņi spēja noņemt jutīgas detaļas no iekšējām diskusijām. Svarīgi, ka galvenais AI kods, OpenAI visvērtīgākais īpašums, joprojām bija drošs.

OpenAI vadītāji atklāja incidentu darbiniekiem visaptverošas sanāksmes laikā uzņēmuma Sanfrancisko birojos un informēja direktoru padomi.

Tomēr viņi nolēma nepublicēt ziņas vai ziņot par tām tiesībaizsardzības iestādēm, piemēram, FIB. Uzņēmuma pamatojums bija tāds, ka informācija par klientiem vai partneriem nav nozagta, un viņi uzskatīja, ka hakeris bija privātpersona, kurai nav zināmu saistību ar ārvalstu valdībām.

Šis lēmums ir radījis jautājumus par caurskatāmību un drošības praksi strauji augošajā mākslīgā intelekta jomā. Incidents ir arī radījis bažas par AI uzņēmumu iespējamo neaizsargātību pret ārvalstu pretiniekiem, īpaši Ķīnu.

Leopolds Ašenbrenners, bijušais OpenAI tehnisko programmu vadītājs, pēc pārkāpuma nosūtīja piezīmi uzņēmuma valdei.

Viņš apgalvoja, ka OpenAI nedara pietiekami daudz, lai neļautu Ķīnas valdībai un citiem ārvalstu pretiniekiem nozagt tās noslēpumus. Ašenbreners, kurš vēlāk tika atlaists no uzņēmuma nesaistītu iemeslu dēļ, pauda bažas, ka OpenAI drošības pasākumi varētu nebūt pietiekami izturīgi, lai aizsargātu pret galveno noslēpumu zādzību, ja uzņēmumā iefiltrētos ārvalstu dalībnieki.

OpenAI ir atspēkojusi šos apgalvojumus. OpenAI pārstāve Liza Buržuā sacīja: "Mēs novērtējam bažas, ko Leopolds pauda, ​​atrodoties OpenAI, un tas neizraisīja viņa atdalīšanu." Viņa piebilda: "Lai gan mēs piekrītam viņa apņemšanās veidot drošu AGI, mēs nepiekrītam daudziem apgalvojumiem, ko viņš kopš tā laika ir izteicis par mūsu darbu. Tas ietver viņa raksturojumus par mūsu drošību, jo īpaši šo incidentu, par kuru mēs runājām un dalījāmies ar mūsu valdi, pirms viņš pievienojās uzņēmumam.

Šis incidents liecina par trauslo līdzsvaru, kas AI uzņēmumiem ir jāpanāk starp atvērtību un drošību.

Lai gan daži uzņēmumi, piemēram, Meta, brīvi koplieto savus AI dizainus kā atvērtā pirmkoda programmatūru, citi izmanto piesardzīgāku pieeju. OpenAI kopā ar tādiem konkurentiem kā Anthropic un Google ir pievienojuši savām AI lietojumprogrammām aizsargmargas, pirms tās piedāvā sabiedrībai, lai novērstu ļaunprātīgu izmantošanu un iespējamās problēmas.

Mets Naits, OpenAI drošības vadītājs, uzsvēra uzņēmuma apņemšanos nodrošināt drošību:

“Mēs sākām investēt drošībā gadus pirms ChatGPT. Mēs esam ceļā, lai ne tikai izprastu riskus un paliktu tiem priekšā, bet arī lai padziļinātu savu noturību.

Pārkāpums ir pievērsis uzmanību arī plašākam jautājumam par AI iespējamo ietekmi uz valsts drošību. Lai gan pašreizējās AI sistēmas galvenokārt tiek izmantotas kā darba un pētniecības rīki, pastāv bažas par turpmākajām lietojumprogrammām, kas varētu radīt nopietnākus riskus.

Daži pētnieki un nacionālās drošības vadītāji apgalvo, ka pat tad, ja pašreizējo AI sistēmu pamatā esošie matemātiskie algoritmi šodien nav bīstami, tie varētu kļūt par tādiem nākotnē.

Sūzana Raisa, bijusī prezidenta Baidena padomniece iekšpolitikas jautājumos un bijusī prezidenta Baraka Obamas padomniece nacionālās drošības jautājumos, uzsvēra, cik svarīgi ir nopietni uztvert iespējamos riskus:

“Pat ja sliktākā gadījuma scenāriju iespējamība ir salīdzinoši zema, ja tiem ir liela ietekme, tad mūsu pienākums ir tos uztvert nopietni. Es nedomāju, ka tā ir zinātniskā fantastika, kā daudziem patīk apgalvot.

Reaģējot uz pieaugošajām bažām, OpenAI nesen ir izveidojusi Drošības un drošības komiteju, lai izpētītu, kā tai būtu jārisina nākotnes tehnoloģiju radītie riski. Komitejā ir Pols Nakasone, bijušais armijas ģenerālis, kurš vadīja Nacionālās drošības aģentūru un Kiberpavēlniecību.

Ziņa OpenAI's Undisclosed 2023 Hack rada jautājumus par AI drošību un pārredzamību, pirmo reizi parādījās Blockonomi.