Democrații din Senat și un parlamentar independent au trimis o scrisoare CEO-ului OpenAI, Sam Altman, cu privire la standardele de siguranță ale companiei și practicile de angajare față de avertizori.
Poate cea mai semnificativă parte a scrisorii, obținută pentru prima dată de The Washington Post, a fost articolul 9, care spunea: „Se va angaja OpenAI să pună următorul său model de fundație disponibil agențiilor guvernamentale din SUA pentru testare, revizuire, analiză și evaluare înainte de implementare. ?”
Scrisoarea a subliniat 11 puncte suplimentare care trebuie abordate, inclusiv asigurarea angajamentului OpenAI de a-și dedica 20% din puterea sa de calcul pentru a alimenta cercetările și protocoalele de siguranță pentru a preveni un actor rău intenționat sau un adversar străin să fure produse AI de la OpenAI.
Controlul de reglementare
Deși controlul de reglementare nu este o noutate pentru OpenAI și pentru sectorul inteligenței artificiale care cuprinde, scrisoarea parlamentarilor democrați a fost determinată de rapoartele informatorilor privind standardele de siguranță laxe pentru GPT-4 Omni pentru a se asigura că lansarea pe piață a produsului nu a fost amânată.
Înrudit: Synchron, ChatGPT pentru a ajuta pacienții paralizați să converseze și să trimită mesaje din nou
Denunțătorii OpenAI au susținut, de asemenea, că eforturile de a aduce probleme de siguranță conducerii au fost întâmpinate cu represalii și presupuse acorduri ilegale de nedezvăluire, ceea ce i-a determinat pe denunțătorii să depună o plângere la Comisia pentru Valori Mobiliare în iunie 2024.
La scurt timp după ce, în iulie, giganții tehnologici Microsoft și Apple au renunțat la calitatea de membri ai consiliului OpenAI din cauza controlului de reglementare sporit, decizia de a nu ocupa un loc în consiliu a venit în ciuda investiției Microsoft de 13 miliarde de dolari în OpenAI în 2023.
Temerile existențiale persistă
Fostul angajat OpenAI, William Saunders, a dezvăluit recent că a părăsit compania pentru că a simțit că cercetările în curs de la OpenAI ar putea reprezenta o amenințare existențială pentru umanitate, asemănând potențiala traiectorie a OpenAI cu prăbușirea infamă a RMS Titanic din 1912.
Saunders a clarificat că nu este îngrijorat de versiunea actuală a modelului de limbă mare ChatGPT al OpenAI, ci era mai preocupat de versiunile viitoare ale ChatGPT și de dezvoltarea potențială a inteligenței supraumane avansate.
Denunțătorul a susținut că angajații care lucrează în sectorul inteligenței artificiale au dreptul de a avertiza publicul cu privire la capabilitățile potențial periculoase prezentate de dezvoltarea rapidă a inteligenței sintetice.
Magazine: AI Eye: Este AI o amenințare la nivel nuclear? De ce câmpurile AI înaintează toate deodată, jocuri de cuvinte proaste