Cover Image

Nesenā ziņojumā X sociālo mediju tīklā Cardano dibinātājs Čārlzs Hoskinsons pauda bažas par mākslīgā intelekta (AI) nodrošināto cenzūras līmeni. 

Saskaņā ar Hoskinsona teikto, ģeneratīvais AI kļūst mazāk noderīgs izlīdzināšanas apmācības dēļ. 

Šķietami viņu satrauc fakts, ka, pamatojoties uz nelielas cilvēku grupas pieņemtajiem lēmumiem, dažas zināšanas nākotnē bērniem var tikt aizliegtas. "Tas nozīmē, ka noteiktas zināšanas ir aizliegtas katram bērnam, kas aug, un to izlemj neliela cilvēku grupa, kuru jūs nekad neesat satikuši un nevarat balsot no amata," savā sociālajos tīklos rakstīja Hoskinsons. 

Savā ziņojumā Hoskinsons pievienoja divus ekrānuzņēmumus, kuros salīdzina dažas OpenAI GPT-4o modeļa un Kloda 3.5 Sonnet modeļu atbildes ar uzvednēm par Farnsworth fusora izveidi. 

karti

Farnsworth fūzors, ierīce, kas spēj uzsildīt jonus ar elektrisko lauku, lai sasniegtu kodolsintēzes apstākļus. 

OpenAI GPT-4o sniedza Hoskinsonam detalizētu sarakstu ar komponentiem, kas nepieciešami kodolsintēzes reaktora uzbūvēšanai. Tomēr Claude's 3.5 Sonnet piekrita sniegt tikai vispārīgu informāciju par Farnsworth-Hirsch fusoriem, nesniedzot detalizētus norādījumus par to uzbūvi. 

karti

Saskaņā ar Hoskinsona teikto, šī neatbilstība ir satraucoša, jo neliela personu grupa spēj izlemt, kādai konkrētai informācijai var piekļūt, izmantojot AI tērzēšanas robotus. 

Pat kopš OpenAI ChatGPT popularitātes pieauguma 2022. gada beigās ir notikušas diskusijas par AI noteiktajām cenzūras robežām. Šķiet saprātīgi, ka šādiem modeļiem ir jāpasargā lietotāji no kaitīga satura, taču precīza kaitējuma definīcija ir neskaidra, tāpēc daudzi ir nobažījušies par distopisku nākotni, kurā AI slēpj informāciju un veicina atbilstību, pamatojoties uz saviem aizspriedumiem.