Odaily Planet Daily News OpenAI un Google DeepMind darbinieki kopīgi pauda bažas, ka progresīvajam mākslīgajam intelektam ir milzīgi riski un tas ir steidzami jānostiprina. Atbildot uz to, OpenAI šodien nāca klajā ar paziņojumu, uzsverot savu apņemšanos nodrošināt jaudīgas un drošas mākslīgā intelekta sistēmas. OpenAI norādīja, ka, ņemot vērā mākslīgā intelekta tehnoloģiju nozīmi, mēs piekrītam atklātās vēstules saturam un nopietnas diskusijas veikšanai ir izšķiroša nozīme, lai labāk veicinātu AI tehnoloģiju attīstību. Mēs turpināsim sadarboties ar valdībām, pilsonisko sabiedrību un citām kopienām visā pasaulē, lai sadarbotos, lai izveidotu harmonisku AI vidi. Tostarp anonīmie godīguma palīdzības tālruņi un drošības un drošības komitejas (Drošības un drošības komiteja), kurās ir iesaistīti valdes locekļi un uzņēmuma drošības vadītāji, ir efektīvs līdzeklis AI regulēšanai. OpenAI atzīmē, ka uzņēmums neizlaidīs jaunu AI tehnoloģiju, kamēr nebūs ieviesti nepieciešamie drošības pasākumi. Uzņēmums atkārtoti apliecināja atbalstu valdības regulējumam un dalībai Brīvprātīgajā saistībā ar mākslīgā intelekta drošību. Reaģējot uz bažām par atriebību, pārstāvis apstiprināja, ka uzņēmums ir lauzis visus bijušo darbinieku līgumus par nenovērtēšanu un izņēmis šādus punktus no standarta šķiršanās dokumentiem. (IT House) Šodien 13 bijušie un esošie darbinieki no OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) un eksperti mākslīgā intelekta jomā uzsāka petīciju "Tiesības brīdināt mākslīgo intelektu". Lūgumraksta mērķis ir iestāties par stingrāku trauksmes cēlēju aizsardzību, lai palielinātu sabiedrības izpratni par progresīvu mākslīgā intelekta sistēmu riskiem. Bijušais OpenAI darbinieks Viljams Saunderss komentēja, ka, strādājot ar potenciāli bīstamām jaunajām tehnoloģijām, ir jābūt veidiem, kā dalīties informācijā par riskiem ar neatkarīgiem ekspertiem, valdībām un sabiedrību.