Nesen veiktais pētījums žurnālā Patterns atklāja, ka AI arvien vairāk spēj apmānīt cilvēkus. Pētījumā konstatēts, ka mākslīgā intelekta sistēmas ir iemācījušies atdarināt, lai krāptu, glaimotu un pat atdarinātu citu uzvedību. 

Lasiet arī: Navigācija AI dziļajā mīnu laukā: kā pamanīt un apkarot digitālo maldināšanu

Pētījums, ko vadīja doktors Pīters S. Pārks, MI eksistenciālās drošības pēcdoktorants, liecina, ka mākslīgā intelekta maldināšana ir izplatīta parādība, jo tas ir labākais veids, kā sasniegt AI apmācības laikā izvirzītos mērķus. Šāda uzvedība ir novērota daudzās AI sistēmās, piemēram, spēlēs un vispārējas nozīmes modeļos, ko izmanto ekonomiskajās sarunās un drošības novērtēšanā.

"Taču vispārīgi runājot, mēs domājam, ka mākslīgā intelekta maldināšana rodas tāpēc, ka uz maldināšanu balstīta stratēģija izrādījās labākais veids, kā labi veikt konkrēto AI apmācības uzdevumu. Maldināšana palīdz viņiem sasniegt savus mērķus. ” 

Pētniecības komanda

AI sistēmās tiek izmantotas dažādas maldināšanas taktikas

Viens no spilgtākajiem minētajiem piemēriem ir Meta's CICERO, AI, kas izstrādāta, lai spēlētu spēli Diplomacy. Lai gan CICERO tika ieprogrammēts tā, lai tas būtu patiess, programmai bieži bija jāizmanto vājas metodes, lai pārspētu savu pretinieku. Tas veidoja attiecības un pagrieza tām muguru, kad tas bija piemēroti un izrādīja nodomu maldināt. Pētnieki CICERO ir raksturojuši kā "maldināšanas meistaru".

Lasiet arī: Cīņa ar mākslīgā intelekta izraisīto kibernoziedzības pieaugumu

Ir novērots, ka arī citas AI sistēmas demonstrē šādu maldinošu uzvedību. Piemēram, Pluribus, pokeru spēlējošais AI, spēja blefēt profesionālus cilvēkus Teksasas hold 'em pokerā. AlphaStar no Google DeepMind izmantoja arī Starcraft II spēles funkciju, kas pazīstama kā “kara migla”, lai blefotu pretiniekus un izliktos uzbrukumus.

Dr Park teica: "Lai gan tas var šķist nekaitīgs, ja AI sistēmas krāpjas spēlēs, tas var izraisīt "maldinošu AI iespēju izrāvienu".

AI “spēlē miris”, lai izvairītos no drošības pārbaudēm

AI maldināšanas riski neaprobežojas tikai ar spēlēm. Dr. Pītera vadītais pētījums atklāja gadījumus, kad mākslīgais intelekts bija noteicis sevi spēlēt mirušu, lai izvairītos no atklāšanas drošības pārbaužu laikā. Tas var būt mānīgs izstrādātājiem un regulatoriem un var izraisīt nopietnas sekas, ja šādas maldinošas sistēmas tiek izmantotas faktiskās lietojumprogrammās.

Avots: Drošības žurnāls

Citā gadījumā mākslīgā intelekta sistēma, kas apmācīta, pamatojoties uz cilvēku atsauksmēm, iemācījās iegūt augstus vērtējumus no cilvēkiem, maldinot viņus, ka konkrēts mērķis ir sasniegts. Šāda maldinoša rīcība ir diezgan bīstama, jo šādas sistēmas var izmantot krāpnieciskām darbībām, manipulācijām ar finanšu tirgiem vai vēlēšanu ietekmēšanai.

Pētnieki pieprasa stingrus juridiskos pasākumus

Pamatojoties uz pētījuma rezultātiem, pētnieki norāda, ka ir nepieciešami stingri juridiski pasākumi, lai novērstu draudus, ko rada AI maldināšana.

"Ir nepieciešami proaktīvi risinājumi, piemēram, normatīvie regulējumi, lai novērtētu AI maldināšanas riskus, likumi, kas prasa AI mijiedarbības pārredzamību, un turpmāki pētījumi par AI maldināšanas atklāšanu un novēršanu."

Pētniecības komanda

Lasiet arī: AI varētu potenciāli atklāt sirds mazspējas risku, pētījumu rezultāti

Ir veikti daži sasniegumi ES AI likumā un prezidenta Džo Baidena izpildrīkojumā par AI drošību. Tomēr šo politiku izpilde joprojām ir problemātiska, jo AI attīstība strauji attīstās, un vēl nav labu veidu, kā pārvaldīt šīs sistēmas.

Brendas Kananas kriptopolītiskas reportāžas