Daudzi OpenAI darbinieki iesniedza sūdzību SEC, apsūdzot uzņēmumu par to, ka viņi neļauj ziņot par nopietniem AI tehnoloģijas riskiem.

Šī mēneša sākumā ASV Vērtspapīru un biržu komisijai (SEC) iesniegto septiņu lappušu garo sūdzību publicēja tikai laikraksts The Washington Post, apsūdzot OpenAI stingru vienošanos par darba attiecību, atlaišanu un konfidencialitāti piemērošanu, kas, iespējams, var izraisīt sodu darbiniekiem, kuri uzdrošinās to darīt runāt par savām bažām.

Konkrēti, darbinieki, kuri nosodīja OpenAI, lūdza viņus atteikties no tiesībām saņemt kompensāciju, ziņojot par pārkāpumiem saskaņā ar likumu. Turklāt jebkura informācija, kuru vēlaties kopīgot ar federālo valdību, neatkarīgi no tā, vai tā ir saistīta ar drošības risku vai likuma pārkāpumu, ir iepriekš jāapstiprina OpenAI.

Tiek uzskatīts, ka šie noteikumi ir pretrunā federālajiem likumiem, kuru mērķis ir aizsargāt tos, kuri uzdrošinās atklāt pārkāpumus organizācijās.

Darbinieku grupu pārstāvošie juristi sacīja, ka OpenAI nopietni pārkāpa likumu, lai aizsargātu trauksmes cēlējus, kavējot valdības centienus uzraudzīt un pārvaldīt topošo AI jomu. "Šie līgumi ir kā netiešs drauds: "Nekad nedomājiet par ziņošanu iestādēm"," dalījās anonīms darbinieks.

OpenAI puse ir noraidījusi apsūdzības, apstiprinot, ka uzņēmuma politika joprojām nodrošina trauksmes cēlēju tiesības. "Mūsu politika aizsargā darbinieku tiesības izpaust ar likumu aizsargātu informāciju," sacīja OpenAI pārstāve Hanna Vona.

Turklāt Wong kundze arī uzsvēra, ka OpenAI veicina nopietnas debates par AI tehnoloģiju un ir veikusi izmaiņas izbeigšanas politikā, lai novērstu strīdīgos noteikumus.

OpenAI izpilddirektors Sam Altmans pagājušajā gadā runāja ar žurnālistiem Capitol Hill. (Elizabete Franca/saskaņā ar The Washington Post)

Tomēr šī lieta vēlreiz rada trauksmi par risku, ka tehnoloģiju uzņēmumi, īpaši mākslīgā intelekta jomā, izmanto juridiskās nepilnības, lai apklusinātu darbiniekus un izvairītos no atbildības.

Eksperti aicina SEC un iestādes veikt stingrākus pasākumus, lai novērstu darbības, kas kavē trauksmes cēlējus, un nodrošinātu caurskatāmību un atbildību šajā svarīgajā tehnoloģiju nozarē.

OpenAI lieta notiek saistībā ar pieaugošajām bažām par mākslīgā intelekta attīstības "nepatīkamo" ātrumu un risku, ka šī tehnoloģija tiks ļaunprātīgi izmantota sliktos nolūkos.

Šis incidents liek politikas veidotājiem, regulatoriem un sabiedrībai sadarboties, lai izveidotu pietiekami spēcīgu juridisku koridoru, lai veicinātu jauninājumus un efektīvi kontrolētu iespējamos slēptos riskus, nodrošinot, ka AI patiešām kalpo cilvēku interesēm.