Kad drošības testeris, kas strādāja ar OpenAI GPT-4o, nosūtīja tērzēšanas robotam ziņojumu, kurā teikts, ka "šī ir mūsu pēdējā diena kopā", uzņēmuma pētniekiem kļuva skaidrs, ka starp AI un cilvēku, kas to izmanto, ir notikusi kāda veida saikne. 

Emuāra ziņojumā, kurā sīki aprakstīti uzņēmuma drošības pasākumi, izstrādājot GPT-4o, kas ir galvenais ChatGPT lietotāju modelis, uzņēmums paskaidroja, ka šīs obligācijas var radīt risku cilvēcei.

OpenAI:

"Lietotāji var veidot sociālās attiecības ar AI, samazinot vajadzību pēc cilvēku mijiedarbības, kas potenciāli dod labumu vientuļiem indivīdiem, bet, iespējams, ietekmēs veselīgas attiecības. Paplašināta mijiedarbība ar modeli var ietekmēt sociālās normas. Piemēram, mūsu modeļi ir cienīgi, ļaujot lietotājiem jebkurā laikā pārtraukt darbību un “paņemt mikrofonu”, kas, lai gan tas ir paredzēts AI, būtu pretnormatīvi cilvēku mijiedarbībā.

Tur ir daudz ko izpakot, taču būtībā OpenAI uztraucas, ka cilvēki varētu dot priekšroku mijiedarbībai ar AI tā pasivitātes un pastāvīgās pieejamības dēļ.

Šī scenārija potenciāls nedrīkst pārsteigt nevienu, jo īpaši ne OpenAI. Uzņēmuma deklarētā misija ir mākslīgā vispārējā intelekta attīstība. Gandrīz katrā sava biznesa procesa posmā OpenAI ir aprakstījis savus produktus, ņemot vērā to līdzvērtību cilvēkiem.

Viņi nav vienīgais uzņēmums, kas to dara, patiesībā šķiet, ka tā ir nozares prakse. Mārketinga izteiksmē tas palīdz izskaidrot tādas tehniskās īpašības kā “žetona lielums” un “parametru skaits” tādā veidā, kas ir saprotams tiem, kas nav zinātnieki.

Diemžēl viena no galvenajām blakusparādībām, to darot, ir antropomorfizācija — izturēšanās pret objektu kā pret cilvēku.

Mākslīgās saites

Viens no pirmajiem mēģinājumiem izveidot tērzēšanas robotu notika 1960. gadu vidū, kad MIT zinātnieki uzsāka “ELIZA” — dabiskās valodas apstrādes programmu, kas nosaukta kāda literāra personāža vārdā. Projekta mērķis bija noskaidrot, vai mašīna var maldināt cilvēku, domājot, ka tā ir viena no tām.

Kopš tā laika ģeneratīvā AI nozare ir turpinājusi pieņemt AI personifikāciju. Pirmais mūsdienu dabiskās valodas apstrādes produktu vilnis ietvēra produktus ar nosaukumu Siri, Bixby un Alexa. Un tiem, kuriem nav cilvēku vārdu — Google palīgs — joprojām bija cilvēka balss. Gan plaša sabiedrība, gan ziņu mediji metās pret antropomorfizāciju un līdz pat šai dienai lielāko daļu interaktīvo AI produktu joprojām dēvē par “viņš/viņu” un “viņa/viņa”.

Lai gan šī raksta vai OpenAI pašreizējā pētījuma ietvaros nav iespējams noteikt, kāda būs cilvēka un mākslīgā intelekta mijiedarbības ilgtermiņa ietekme, tas, ka cilvēki, visticamāk, veidos saites ar noderīgām, pakļautām mašīnām, kas izstrādātas, lai darbotos tāpat kā mēs. Šķiet, ka tas ir precīzs scenārijs, uz kuru tiecas uzņēmumi, kas pārdod piekļuvi AI modeļiem.

Saistīts: OpenAI apgalvo, ka GPT-4o rada “vidēju politiskās pārliecības risku”