Генеральний директор OpenAI Сем Альтман пішов у відставку з внутрішнього Комітету з безпеки та безпеки компанії, групи, створеної в травні для нагляду за критично важливими рішеннями щодо безпеки. Відхід Альтмана стався в той час, коли американські законодавці та колишні співробітники OpenAI висловили занепокоєння щодо безпеки та відповідності законодавству компанії.
Комітет із безпеки тепер працюватиме як окремий комітет на рівні ради, який стежить за питаннями безпеки. Ця зміна призначила Зіко Колтера, професора з Університету Карнегі-Меллона, його головою, а також генерального директора Quora Адама Д’Анджело, генерала армії США у відставці Пола Накасона та колишнього керівника Sony Ніколь Селігман. Усі вони є членами правління OpenAI. Група все ще матиме повноваження стримувати випуск моделей штучного інтелекту, доки не будуть вирішені питання безпеки.
Критики ставлять під сумнів пріоритети OpenAI у зв’язку з відходом ключового персоналу
У дописі в блозі після відходу Альтмана OpenAI знову звернув увагу на безпеку та зазначив, що комітет раніше схвалив безпеку найновішої моделі o1. Група також регулярно отримуватиме додаткову інформацію від персоналу безпеки та безпеки компанії, щоб тримати членів у курсі та інформувати про майбутні випуски моделей ШІ. Він також заявив, що має намір посилити заходи безпеки, ухваливши технічні огляди та чітко окреслені цілі для запуску моделей.
Це сталося після критики, особливо з боку п’яти американських сенаторів, які влітку висловили стурбованість заходами безпеки компанії. Критики також відзначають, що більше половини співробітників, яким доручено боротися з довгостроковими наслідками ШІ, покинули компанію. Дехто сказав, що Альтман більше стурбований бізнес-аспектом ШІ, ніж регулюванням технології.
Витрати OpenAI зросли. У першій половині 2024 року компанія витратила 800 000 доларів на федеральне лобіювання, що є значним збільшенням порівняно з 260 000 доларів, витраченими за весь 2023 рік. На початку цього року Альтман став членом відділу безпеки штучного інтелекту Міністерства внутрішньої безпеки США. Рада безпеки. Комітет має надавати поради щодо використання штучного інтелекту в критично важливих системах країни.
Є ще питання щодо саморегуляції гіганта ШІ. У своїй статті для The Economist колишні члени правління OpenAI Хелен Тонер і Таша МакКолі висловили сумніви щодо здатності компанії контролювати себе. Вони стверджували, що стимули для отримання прибутку можуть підірвати самоуправління OpenAI, яке, на їхню думку, може суперечити довгостроковим цілям безпеки.
OpenAI шукає значне фінансування та планує перейти до комерційної моделі
Повідомляється, що OpenAI веде дискусії щодо забезпечення нового великого раунду фінансування, яке може збільшити його оцінку до 150 мільярдів доларів. У недавньому звіті Cryptopolitan OpenAI планує отримати 6,5 мільярда доларів від інвесторів за поточною оцінкою. Повідомляється, що OpenAI планує до 2025 року трансформувати свою поточну операційну модель у традиційну модель для отримання прибутку.
Генеральний директор OpenAI Сем Альтман розповів про зміни в персоналі під час нещодавньої зустрічі, але не розповів багато про те, чого очікувати. Альтман сказав, що компанія «виросла занадто великою» для нинішньої структури та готова відійти від некомерційної моделі.