Saskaņā ar Odaily teikto, trīspadsmit bijušie un pašreizējie darbinieki no OpenAI (ChatGPT), Anthropic (Claude) un DeepMind (Google), kā arī vadošie mākslīgā intelekta eksperti iestājas par stingrāku trauksmes cēlēju aizsardzību. Mērķis ir palielināt sabiedrības izpratni par riskiem, kas saistīti ar progresīvām mākslīgā intelekta sistēmām.

Šīs personas, kas ir mākslīgā intelekta attīstības un pētniecības priekšgalā, uzskata, ka ir ļoti svarīgi nodrošināt pastiprinātu aizsardzību tiem, kuri šajā jomā pakļauj potenciālu apdraudējumu un neētisku praksi. Tas ir paredzēts, lai nodrošinātu, ka sabiedrība ir labi informēta par iespējamiem riskiem un izaicinājumiem, ko var radīt uzlabotas AI sistēmas.

Aicinājums pēc spēcīgākas trauksmes cēlēju aizsardzības nāk laikā, kad AI tehnoloģija strauji attīstās un kļūst arvien izplatītāka tās integrācija dažādās sabiedrības nozarēs. Tādējādi nepieciešamība pēc pārredzamības un pārskatatbildības šajā jomā ir svarīgāka nekā jebkad agrāk. Aizstāvji uzskata, ka, aizsargājot tos, kuri vēlas izteikties par šiem jautājumiem, sabiedrība būs labāk sagatavota, lai izprastu progresīvo AI sistēmu sarežģītību un orientētos tajās.