Співробітники Odaily Planet Daily News OpenAI і Google DeepMind спільно висловили занепокоєння тим, що розширений штучний інтелект має величезні ризики і терміново потребує посилення. У відповідь OpenAI оприлюднив сьогодні заяву, в якій підкреслив свою відданість наданню потужних і безпечних систем штучного інтелекту. OpenAI заявив, що з огляду на важливість технології штучного інтелекту ми погоджуємося зі змістом відкритого листа, і те, як провести серйозні дискусії, має вирішальне значення для кращого сприяння розвитку технології штучного інтелекту. Ми продовжуватимемо співпрацювати з урядами, громадянським суспільством та іншими спільнотами в усьому світі, щоб разом працювати над створенням гармонійного середовища ШІ. Включно з анонімними гарячими лініями доброчесності та комітетами з безпеки та безпеки (Комітет з безпеки та безпеки) за участю членів правління та керівників служби безпеки компаній – усе це ефективні засоби регулювання ШІ. OpenAI зазначає, що компанія не випускатиме нову технологію штучного інтелекту, доки не буде встановлено необхідні гарантії. Компанія підтвердила свою підтримку державного регулювання та участь у Добровільному зобов’язанні щодо безпеки штучного інтелекту. Відповідаючи на занепокоєння щодо помсти, прес-секретар підтвердив, що компанія розірвала угоди про неприниження всіх колишніх співробітників і видалила такі пункти зі стандартних документів про звільнення. (IT House) Раніше сьогодні 13 колишніх і нинішніх співробітників OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) і експерти в галузі штучного інтелекту запустили петицію «Право попереджати штучний інтелект». Петиція спрямована на підтримку посилення захисту інформаторів, щоб підвищити обізнаність громадськості про ризики передових систем штучного інтелекту. Колишній співробітник OpenAI Вільям Сондерс прокоментував, що при роботі з потенційно небезпечними новими технологіями повинні бути способи обміну інформацією про ризики з незалежними експертами, урядами та громадськістю.