Бывший главный научный сотрудник OpenAI Илья Суцкевер основывает новую компанию в области искусственного интеллекта, всего через месяц после объявления о своем уходе из OpenAI. «Я открываю новую компанию под названием Safe Superintelligence Inc. (SSI), — объявил он поздно вечером в среду.

Читайте также: Главный научный сотрудник OpenAI Илья Суцкевер прощается

SSI базируется в Америке и имеет офисы в Пало-Альто и Тель-Авиве. В официальном сообщении стартапа говорится, что у него «одна цель и один продукт: безопасный сверхинтеллект».

«Мы будем стремиться к созданию безопасного суперинтеллекта сразу, с одним фокусом, одной целью и одним продуктом. Мы сделаем это посредством революционных прорывов, произведенных небольшой опытной командой», — сказал Суцкевер. 

«Наша единая цель — отсутствие отвлекающих факторов», — говорит SSI.

В настоящее время SSI возглавляют Суцкевер, Дэниел Гросс и еще один бывший исследователь OpenAI Дэниел Леви. Инвесторы, стоящие за стартапом, на момент написания статьи остаются неизвестными.

Однако компания отметила в своем заявлении, что вся «команда, инвесторы и бизнес-модель объединены для достижения «безопасного сверхразума». Это замечание несколько похоже на упрек в адрес OpenAI, на которую когда-то подал в суд Илон Маск за то, что она поставила прибыль выше человечества и отказалась от своей первоначальной миссии.

«Наша единая направленность означает отсутствие отвлекающих факторов на управленческие расходы или циклы производства продукции, а наша бизнес-модель подразумевает, что безопасность, надежность и прогресс изолированы от краткосрочного коммерческого давления».

ССИ

Сутскевер объявил, что покидает OpenAI 15 мая после почти десятилетней работы в ведущей компании ИИ. До этого он молчал на радио после неудачной попытки вытеснить генерального директора Сэма Альтмана из OpenAI в декабре прошлого года.

Спустя почти десятилетие я принял решение покинуть OpenAI. Развитие компании можно назвать просто чудом, и я уверен, что OpenAI создаст безопасный и полезный AGI под руководством @sama, @gdb, @miramurati, а теперь и под…

— Илья Суцкевер (@ilyasut) 14 мая 2024 г.

Другой руководитель OpenAI, Ян Лейке, ушел в отставку вслед за Суцкевером. Оба они совместно руководили командой Superalignment в OpenAI, которая отвечает за предотвращение выхода из-под контроля сверхразумных моделей ИИ.

Читайте также: Еще один руководитель OpenAI, Ян Лейке, уходит

Суцкевер не назвал четко причин своего ухода из OpenAI. Однако Лейке сослался на проблемы безопасности в фирме, заявив, что «за последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами».

«Я присоединился, потому что считал, что OpenAI станет лучшим местом в мире для проведения таких исследований», — сказал Лейке. «Однако я уже довольно долго не соглашался с руководством OpenAI относительно основных приоритетов компании, пока мы, наконец, не достигли критической точки», — добавил он.

SSI — не первая компания, которая отделилась от OpenAI

Лейке присоединился к конкуренту OpenAI, компании Anthropic, в качестве исследователя машинного обучения 28 мая, в то время как Суцкевер отправился создавать свою новую компанию в сфере искусственного интеллекта, что стало повторением событий.

Примечательно, что SSI не станет первой компанией, которая отделится от OpenAI. В 2021 году двое бывших сотрудников OpenAI покинули фирму, чтобы стать соучредителями Anthropic, которая по состоянию на 13 мая оценивается в 18,4 млрд долларов после получения инвестиций.

Основатели Anthropic также покинули OpenAI из-за разногласий с Сэмом Альтманом относительно безопасных разработок в области ИИ.

Криптополитический репортаж Ибиама Уайаса