Google strādā, lai no saviem AI meklēšanas rezultātiem novērstu kļūdainas un potenciāli bīstamas atbildes. Tomēr jaunā funkcija "AI pārskats" dažreiz sociālajos medijos un satīriskās vietnēs kā faktu atspoguļo jokus un satīru.

Google nesen publicētie mākslīgā intelekta meklēšanas rezultāti ir piesaistījuši lielu uzmanību, taču ne gaidīto pozitīvo iemeslu dēļ. Tehnoloģiju gigants pagājušajā nedēļā paziņoja par virkni jaunu mākslīgā intelekta rīku, kas ir daļa no nesen uzsāktās "Gemini Era" stratēģijas. Līdz ar to tiek veiktas būtiskas izmaiņas tā paraksta tīmekļa meklēšanas pakalpojumā, kur atbildes uz jautājumiem meklēšanas rezultātos tagad tiek parādītas dabiskā valodā tieši virs vietnes saitēm.

Lai gan Google atjauninājums padara meklēšanas tehnoloģiju progresīvāku un var risināt sarežģītākus lietotāju jautājumus, tas arī rada zināmas bažas. Piemēram, kad AI apstrādā meklēšanas rezultātus, tas dažreiz sniedz lietotājiem nepareizu vai maldinošu informāciju, kas ir īpaši problemātiski, ja runa ir par sensitīvām tēmām, piemēram, eigēniku. Vēstures gaitā eigēnika ir nepareizi izmantota dažās necilvēcīgās politikās, tāpēc tās informācijas precizitāte un jutīgums ir īpaši svarīgas.

Turklāt mākslīgajam intelektam ir arī nepietiekama precizitāte, identificējot konkrētas lietas, piemēram, atšķirot indīgas un netoksiskas sēnes. Tas mums atgādina, ka, izmantojot AI meklēšanas rīkus, mums jābūt īpaši uzmanīgiem ar veselību un drošību saistītiem vaicājumiem un, ja iespējams, jāmeklē profesionāls apstiprinājums.

Kad Google AI sniedz atbildes uz "AI pārskatu", tas dažkārt atsaucas uz saturu no sociālajiem medijiem, piemēram, Reddit, kas, iespējams, ir paredzēts humoram vai satīrai. Tā rezultātā lietotājiem tiek sniegtas dažas acīmredzami nepareizas vai muļķīgas atbildes.

Piemēram, daži lietotāji ziņoja, ka, kad viņi jautāja, kā tikt galā ar depresiju, Google AI patiesībā ieteica "nolēkt no Zelta vārtu tilta". Citas atbildes absurdi apstiprināja pretgravitācijas spēju, kas ļautu cilvēkiem palikt gaisā tik ilgi, kamēr viņi neskatās lejup.

Šie piemēri liecina, ka, lai gan AI ir guvis panākumus meklēšanas rezultātu sniegšanā, joprojām ir trūkumi precizitātes un uzticamības jomā, un ir nepieciešami turpmāki uzlabojumi.

Sākotnējais Google sadarbības ar Reddit nolūks ir atvieglot lietotāju atrašanu un dalību tajās interesējošās kopienās un diskusijās. Tomēr šī sadarbība atklāja arī dažus riskus, īpaši, ja AI apstrādā saturu no Reddit. Tā kā mākslīgajam intelektam var nebūt pietiekami daudz iespēju saskatīt informācijas autentiskumu vai kontekstu, tas var bez izšķirības pieņemt un citēt informāciju no Reddit. Šāda nekritiska informācijas pieņemšana var izraisīt maldinošu vai pat smieklīgu ieteikumu parādīšanu meklēšanas rezultātos.

Piemēram, mākslīgais intelekts reiz sniedza nepiemērotu ieteikumu, ka bērniem vajadzētu ēst vismaz vienu mazu akmeni dienā, un nepareizi apzīmēja ieteikumu kā no Kalifornijas Universitātes Bērklijas ģeologa. Šis piemērs parāda, ka mākslīgais intelekts, apstrādājot tiešsaistes informāciju, var ignorēt informācijas ticamību un piemērotību, tādējādi maldinot.

Lai gan Google ir izdzēsis vai izlabojis dažas acīmredzami smieklīgas atbildes, mākslīgā intelekta radītie modeļi dažkārt rada neprecīzas vai fiktīvas atbildes. Šo parādību sauc par "halucinācijām". Šīs "halucinācijas" var uzskatīt par nepatiesiem apgalvojumiem, jo ​​AI rada kaut ko, kas nav faktisks.

Tikmēr Google AI kļūdaini ieteica izmantot līmi, lai siers nenoslīdētu no picas, ieteikums izriet no desmit gadus veca komentāra Reddit.

Ir zināms, ka OpenAI ChatGPT modelis izdomā faktus, tostarp nepatiesi apsūdzēja tiesību profesoru Džonatanu Tērliju seksuālā vardarbībā, pamatojoties uz ceļojumu, kurā viņš nepiedalījās. Šis incidents liecina, ka mākslīgais intelekts, apstrādājot informāciju, var būt pārāk pašpārliecināts un nespēj precīzi atšķirt interneta satura autentiskumu.

Turklāt mākslīgā intelekta pārliecība var novest pie tā, ka tā bez izšķirības pieņem visu internetā pieejamo informāciju kā patiesu. Šī uzticēšanās var izraisīt nepareizu spriedumu, piemēram, uzņēmumu nepareizu notiesāšanu pretmonopola likumu kontekstā un nepatiesu vainas uzvešanu uz bijušajiem Google vadītājiem.

Kad lietotāji Google tīklā meklē ar popkultūru saistītus jautājumus, AI Search Suggestions funkcija dažkārt var parādīt humoristiskus vai mulsinošus rezultātus. Tas var būt tāpēc, ka mākslīgais intelekts saskaras ar izpratnes problēmām, apstrādājot popkultūras saturu, it īpaši, ja saturs ietver humoru, satīru vai īpašu sociālo kontekstu. Tajā pašā laikā AI var būt grūti precīzi aptvert šī satura patieso nolūku, kā rezultātā tiek sniegti ieteikumi vai atbildes, kas neatbilst lietotāju cerībām, izraisot dažas negaidītas reakcijas.

Turklāt Google AI sniedz atjauninātus ieteikumus par problēmu, kas saistīta ar akmeņu uzņemšanu bērniem, norādot, ka iespējamie iemesli ir bērnu zinātkāre, maņu apstrādes grūtības vai uztura traucējumi. Tas vēlreiz parāda, ka mums ir jābūt ārkārtīgi piesardzīgiem, izmantojot AI sniegto informāciju, jo īpaši, ja informācija attiecas uz veselības un drošības ieteikumiem, un mums ir jāmeklē profesionāla padoms un palīdzība.

Secinājums:

Lai gan Google AI meklēšanas ieteikumu funkcija ir panākusi ievērojamu tehnisko progresu, tās precizitātes un uzticamības trūkumi joprojām var radīt nopietnas sekas. No nekritiskas informācijas pieņemšanas sociālo mediju platformās, piemēram, Reddit, līdz maldinošai informācijai par sensitīvām tēmām, piemēram, eigēniku, līdz neatbilstošai sevis noziedzībai juridiskajā jomā, šie incidenti ir uzsvēruši AI nozīmi informācijas pārbaudē un spriedumos.

Turklāt AI modeļu problēma, kas veido faktus vai rada "halucinācijas", arī parāda tās ierobežojumus sarežģītu problēmu risināšanā. Tāpēc mums ir jāsaglabā modrība attiecībā uz AI sniegto informāciju, jāmeklē profesionāls padoms un jāaicina izstrādātāji un pētnieki turpināt uzlabot mākslīgā intelekta tehnoloģiju, lai nodrošinātu, ka tā sniedz cilvēkiem lielāku labumu, nevis risku. #GoogleAI #准确性 #AI模型 #可靠性