Pēdējā laikā virsraksti ir vērsti uz mākslīgā intelekta sasniegumiem. Taču mākslīgais intelekts pastāv jau vairākus gadu desmitus, un tas arī turpmāk būs liela daļa no tā, kā kari tiks izcīnīti arī turpmāk dažādu militāru un aizsardzības lietojumu dēļ.

Tas nav tikai militārpersonas; jūs, iespējams, lasāt šo tekstu ierīcē, kas jau lielā mērā balstās uz mākslīgo intelektu; tādējādi jūs, iespējams, jau esat kaut kādā veidā izmantojis mākslīgo intelektu pat pirms nesenās vilšanās.

AI, visticamāk, ir izmantots jebkurā situācijā, kad esat maksājis par jebko tiešsaistē, piemēram, par pārtiku vai izklaidi, izmantojis seju vai pirkstu nospiedumus, lai atbloķētu tālruni, iesaistījies sociālajos medijos vai plānojis ceļojumu, izmantojot tālruņa lietojumprogrammu.

Mēs esam pieraduši pie AI dažādos veidos, iekļaujot to savā ikdienas dzīvē, bieži vien to neapzinoties.

Militārais AI pastāv kopš Otrā pasaules kara

Lai gan ieroči ir spējuši pieņemt dažus lēmumus kopš Otrā pasaules kara, mākslīgais intelekts tagad ļauj viņiem pieņemt daudz vairāk lēmumu un galu galā padarīs tos par ierastiem. 

Kā būtu, ja kādam tiktu uzbrukts un viņa identitāti noteiktu šāda sejas atpazīšanas programmatūra? Tā vietā, lai noteiktu labāko restorānu, kurā ēst, ko darīt, ja līdzīga programmatūra vada lidmašīnas, lai veiktu uzlidojumu mērķim? 

Lasiet arī: Vai AI militāro sistēmu pieņemšana paredz draudīgu kara pavērsienu?

Pagaidām tā izskatās kā patiešām liela problēma. Jautājums ir, vai AI sistēmas patiešām varētu pieņemt lēmumus par dzīvību vai nāvi? To precizitāte nav perfekta un mainās atkarībā no situācijas, un mēs zinām, ka tie ne vienmēr ir pareizi.

Faktiskajās konfliktu zonās mākslīgais intelekts jau izvēlas, uz kuriem cilvēkiem mērķēt, piemēram, Gazu un Ukrainu. Saskaņā ar pētījumu, kas publicēts Izraēlas ziņu izdevumā +972, Izraēla ir izmantojusi mākslīgā intelekta (AI) sistēmu ar nosaukumu Lavender, kurai ir minimāla pielietojamība cilvēku lēmumu pieņemšanā, lai atlasītu iespējamos mērķus, izraisot ievērojamu skaitu civiliedzīvotāju upuru. Žurnāls.

Mašīnas var to darīt auksti

Nesen Austrijā notika konference, lai apspriestu noteikumus par mākslīgā intelekta ieročiem, lai novērstu to postošo ietekmi. AI jau cīnās un vēršas pret cilvēkiem un viņu apmetnēm. Austrijas ārlietu ministrs Aleksandrs Šalenbergs sacīja,

"Mēs nevaram ļaut šim brīdim paiet, nerīkojoties. Tagad ir pienācis laiks vienoties par starptautiskajiem noteikumiem un normām, lai nodrošinātu cilvēka kontroli.

Avots: Reuters.

Tehnoloģija, ko daudzi militāristi izvieto kara zonās, joprojām ir tālu no brieduma un vēl netiek izmantota, lai izlemtu, kam mērķēt. Tehnoloģija, ko mēs saucam par viedo, vēl nav tik spējīga kā kaķa smadzenes; pat eksperti saka, ka, ja mēs tuvāko gadu laikā sasniegsim peles intelekta līmeni, tas būs liels sasniegums. 

Bet atkarības līmenis no tā ir tik augsts, ka tas tiek brutāli izvietots tādā veidā, kas dehumanizē gan mērķi, gan to, kam ir uguns spēks. Tas rada nopietnus jautājumus par morālām, humanitārām un ētiskām problēmām. 

Mums kā cilvēkiem ir pretenzijas, taču, lai novērstu sērojošu karavīru, militāristi tagad var izmantot šo jauno ieroci, jo žurnāls +972 piemin slepenu avotu no izlūkdienestiem, kurš teica:

“Mašīna to darīja auksti. Un tas padarīja to vieglāku. ”

Avots: +972 Žurnāls.

Vai tiešām ir svarīgi, lai cilvēki tiktu iesaistīti atlases procesā? Uz cita Lavender lietotāja jautājumu viņš teica, ka tajā brīdī viņš katram mērķim veltīs 20 sekundes un katru dienu izpildīs desmitiem to. Tā kā, izņemot oficiālu apstiprinājuma zīmogu, viņam nebija nekādas papildu vērtības kā cilvēkam. Tas diezgan ietaupa laiku.

Ir viegli saprast, cik lielu lēmumu pieņemšanas spēku mēs, cilvēki, labprātīgi nododam mašīnām.

Starptautiskie līgumi joprojām ir tālu

Amerikas Savienotās Valstis ir uzsākušas regulējuma pasākumus, īstenojot Politisko deklarāciju par mākslīgā intelekta un autonomijas atbildīgu militāru izmantošanu. Proklamācija ietver arī Austrāliju. Tomēr līdz starptautiskajam līgumam vēl ir ļoti tālu.

Deklarācijā minēts, ka aizsardzības pasākumu nodrošināšana ir būtiska, jo tajā teikts, ka

“Valstām būtu jāievieš atbilstoši drošības pasākumi, lai mazinātu militāro mākslīgā intelekta spēju atteices riskus, piemēram, spēja atklāt un izvairīties no neparedzētām sekām un spēja reaģēt, piemēram, atslēdzot vai deaktivizējot izvietotās sistēmas, ja šādas sistēmas demonstrē neparedzētu uzvedību. ”

Avots: ASV Valsts departaments.

Dokumentā arī uzsvērts, ka mākslīgā intelekta izmantošana militārajā jomā "var un tai vajadzētu būt" ētiska, kā arī starptautiskās drošības uzlabošana. Bet zemes realitāte parāda pavisam citu ainu, kā minēts iepriekš.

Ienaidnieka militārā personāla atrašana un atrašanās vietas noteikšana ir viens no šādu sistēmu lietojumiem; ar spridzināšanas inovāciju, kas notiek, mums nav ne jausmas, kādi citi sarežģīti militārie lietojumi varētu izpausties. 

Lasiet arī: Kasperskis noliedz apgalvojumus par palīdzību Krievijas militārpersonām

Pašlaik nešķiet, ka diskusijas par mākslīgā intelekta izslēgšanu no karadarbības nav risinājums, taču likumdevējiem visā pasaulē un valdībām, kas ir iesaistītas konfliktos, ir jāievēro AI spēju trūkums un potenciālais postījums, ko tas varētu nodarīt. mēs, cilvēki.

Pašlaik politikas veidošana neatbilst inovāciju tempam, un tas zināmā mērā, ja ne pilnībā, ir jārisina, jo mēs nevaram vienkārši sēdēt un teikt: oho! AI izdarīja vēl 1000 nogalināšanas. Ko AI prezentēs? Mēs vēl nezinām, bet tas, kas būtu jādara politikas veidotājiem, nav tikai ģēniju jautājums.

Aamir Sheikh kriptopolītu ziņojumi.