OpenAI готовит новую систему искусственного интеллекта, чтобы она могла прийти на смену GPT-4, поскольку компания надеется на перезагрузку своей репутации. Этой модели будет предшествовать создание комитета по безопасности и защите во главе с генеральным директором Сэмом Альтманом и тремя другими членами совета директоров. 

Также читайте: ChatGPT все еще распространяет ложь, говорит наблюдатель за данными ЕС

Компания из Сан-Франциско вынуждена продемонстрировать свою приверженность безопасности. Недавно ушедшие в отставку исследователи рисков Ян Лейке и Гретхен Крюгер разоблачили предполагаемую низкую культуру безопасности OpenAI на X, ранее Twitter.

OpenAI тренирует «модель следующего рубежа»

В сообщении в блоге, опубликованном во вторник, компания сообщила:

«OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к общему искусственному интеллекту (AGI)».

OpenAI не сообщила, когда будет выпущен преемник GPT-4 и что он сможет сделать. Компания, стоимость которой оценивается в 80 миллиардов долларов, предприняла попытку первопроходца со своим чрезвычайно популярным чат-ботом с искусственным интеллектом ChatGPT в то время, когда такие фавориты, как Google, отошли на второй план, чтобы оценить репутационные риски.

Хотя OpenAI является лидером в гонке генеративного искусственного интеллекта, с которой активно конкурируют Anthropic, Google, Microsoft и другие, фирма не всегда выдерживает этическую проверку.

В сообщении, объявляющем о своем уходе из OpenAI on X, Лейке сообщил, что «за последние годы культура и процессы безопасности отошли на второй план, уступив место блестящим продуктам».

Крюгер написал, что компании необходимо «делать больше для улучшения фундаментальных вещей, таких как процессы принятия решений, подотчетность, прозрачность, обеспечение соблюдения политики и тщательность, с которой мы используем наши собственные технологии».

На прошлой неделе целевая группа Европейского Союза отреагировала на критику, сообщив, что ChatGPT, флагманский продукт компании, не соответствует стандартам точности.

Фирма называет безопасность ИИ ключевым аргументом в пользу продажи

Между тем, недавнее обновление OpenAI модели GPT-4 мгновенно привело к громкой ссоре, когда актриса Скарлетт Йоханнсон обвинила компанию в несанкционированном использовании ее голоса.

Читайте также: OpenAI отказывается от голоса ChatGPT после скандала со Скарлетт Йоханссон

Теперь компания стремительно продвигается к прачечной самообслуживания, поскольку она называет безопасность главным аргументом своей предстоящей программы искусственного интеллекта. Эта компания также хочет, чтобы регулирующие органы считали ее разрабатывающей ответственный ИИ. В своем сообщении в блоге OpenAI добавил:

«Хотя мы гордимся тем, что создаем и выпускаем модели, которые являются ведущими в отрасли как по возможностям, так и по безопасности, мы приветствуем активную дискуссию в этот важный момент».

Новый комитет по охране и безопасности возглавят директора Альтман, Брет Тейлор (председатель), Адам Д’Анджело и Николь Селигман. В состав комитета также войдут руководитель отдела готовности фирмы, руководитель систем безопасности, руководитель отдела центровки, руководитель службы безопасности и главный научный сотрудник.

OpenAI заявила, что комитет в течение следующих трех месяцев «оценит и доработает процессы и меры безопасности» и отчитается перед тремя другими директорами.

В начале этого месяца фирма распустила свою команду по безопасности после ухода руководителя группы и соучредителя OpenAI Ильи Суцкевера.

Криптополитические репортажи Джеффри Гого