CEO-ul OpenAI, Sam Altman, a demisionat din Comitetul intern de siguranță și securitate al companiei, un grup înființat în mai pentru a supraveghea deciziile critice de siguranță. Plecarea lui Altman vine într-un moment în care parlamentarii americani și foștii angajați ai OpenAI și-au exprimat îngrijorarea cu privire la siguranța și conformitatea legală a companiei.
Comitetul de siguranță și securitate va funcționa acum ca un comitet separat la nivel de consiliu care monitorizează problemele de siguranță și securitate. Această schimbare l-a numit pe Zico Kolter, profesor de la Universitatea Carnegie Mellon, ca președinte, alături de CEO-ul Quora, Adam D’Angelo, generalul în retragere al armatei americane Paul Nakasone și fostul director Sony Nicole Seligman. Toți sunt membri actuali ai consiliului OpenAI. Grupul va avea în continuare puterea de a opri lansarea modelelor AI până când problemele de siguranță vor fi rezolvate.
Criticii pun la îndoială prioritățile OpenAI pe măsură ce personalul cheie pleacă
Într-o postare pe blog după plecarea lui Altman, OpenAI și-a reafirmat concentrarea pe siguranță și a remarcat că comitetul a aprobat anterior siguranța celui mai nou model, o1. De asemenea, grupul va primi în mod regulat informații suplimentare de la personalul de siguranță și securitate al companiei pentru a-i ține pe membri la curent și informați cu privire la lansările viitoare ale modelelor AI. De asemenea, a spus că intenționează să îmbunătățească măsurile de siguranță prin adoptarea de revizuiri tehnice și obiective bine conturate pentru lansările de modele.
Acest lucru vine în urma criticilor, în special din partea a cinci senatori americani care și-au exprimat îngrijorarea cu privire la măsurile de siguranță ale companiei în vară. Criticii au remarcat, de asemenea, că mai mult de jumătate din personalul însărcinat să se ocupe de consecințele pe termen lung ale inteligenței artificiale au părăsit compania. Unii au spus că Altman este mai preocupat de aspectul de afaceri al AI decât de reglementarea tehnologiei.
Cheltuielile OpenAI au fost în creștere. În prima jumătate a anului 2024, compania a cheltuit 800.000 de dolari pe lobby federal, ceea ce reprezintă o creștere semnificativă în comparație cu cei 260.000 de dolari cheltuiți pentru întregul an 2023. La începutul acestui an, Altman a devenit membru al Departamentului de Securitate Internă al Siguranței Inteligenței Artificiale și Consiliul de Securitate. Comitetul ar trebui să ofere consiliere cu privire la utilizarea IA în sistemele critice ale țării.
Există încă întrebări cu privire la autoreglementarea gigantului AI. Într-un articol de opinie pentru The Economist, foștii membri ai consiliului de administrație al OpenAI Helen Toner și Tasha McCauley au ridicat îndoieli cu privire la capacitatea companiei de a se controla. Ei au susținut că stimulentele pentru profit ar putea submina auto-guvernarea OpenAI, despre care cred că poate fi în contradicție cu obiectivele de siguranță pe termen lung.
OpenAI caută finanțare masivă și plănuiește trecerea la modelul pentru profit
Se pare că OpenAI este în discuții pentru a asigura o nouă rundă masivă de finanțare care ar putea împinge evaluarea sa la 150 de miliarde de dolari. Într-un raport recent al Cryptopolitan, OpenAI intenționează să asigure 6,5 miliarde de dolari de la investitori la evaluarea sa actuală. Se pare că OpenAI intenționează să își transforme modelul operațional actual într-un model tradițional pentru profit până în 2025.
CEO-ul OpenAI, Sam Altman, a dezvăluit schimbările aduse personalului în timpul unei întâlniri recente, dar nu a dezvăluit prea multe despre ce să se aștepte. Altman a spus că compania „a crescut prea mare” pentru structura actuală și este pregătită să se îndepărteze de modelul non-profit.