Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI, вместе с бывшим инженером OpenAI Дэниелом Леви и инвестором Дэниелом Гроссом, ранее партнером стартап-акселератора Y Combinator, запустили Safe Superintelligence, Inc. (SSI). Компания со штаб-квартирой в Пало-Альто и Тель-Авиве стремится развивать искусственный интеллект (ИИ), уделяя приоритетное внимание безопасности и возможностям. В онлайн-объявлении от 19 июня основатели подчеркнули свою приверженность:

«С самого начала мы по-прежнему сосредоточены на безопасности и возможностях ИИ. Этот особый фокус гарантирует, что мы не отвлекаемся на управленческие накладные расходы или циклы выпуска продукции, а наша бизнес-модель защищает безопасность, защищенность и прогресс от краткосрочного коммерческого давления».

Суцкевер и Гросс уже давно выступают за безопасность ИИ.

Суцкевер покинул OpenAI 14 мая после того, как был причастен к увольнению генерального директора Сэма Альтмана. Его роль в компании стала неоднозначной после того, как он ушел из совета директоров после возвращения Альтмана. Вскоре после ухода Суцкевера Дэниел Леви вместе с несколькими другими исследователями также покинул OpenAI.

Суцкевер и Ян Лейке возглавляли команду Superalignment OpenAI, сформированную в июле 2023 года для изучения методов управления и управления системами ИИ, более интеллектуальными, чем люди, известными как общий искусственный интеллект (AGI). На момент своего создания OpenAI выделила 20% своих вычислительных ресурсов для поддержки команды Superalignment.

В мае Лейке также покинул OpenAI, чтобы возглавить команду Anthropic, стартапа в области искусственного интеллекта, поддерживаемого Amazon. После ухода ключевых исследователей OpenAI распустила команду Superalignment. Грег Брокман, президент компании, защищал ее протоколы безопасности в подробном посте на X.

Другие видные деятели технологической отрасли также разделяют опасения

Бывшие исследователи OpenAI, а также многочисленные ученые выражают глубокую обеспокоенность по поводу будущего развития ИИ. Виталик Бутерин, соучредитель Ethereum, назвал AGI «рискованным» на фоне недавних кадровых изменений в OpenAI. Однако он также отметил, что «такие модели представляют гораздо меньший риск гибели по сравнению с корпоративной манией величия и военным применением».

Источник: Илья Суцкевер

Генеральный директор Tesla Илон Маск, ранее поддерживавший OpenAI, и соучредитель Apple Стив Возняк присоединились к более чем 2600 технологическим лидерам и исследователям, призывая к шестимесячной паузе в обучении систем искусственного интеллекта. Они подчеркнули необходимость того, чтобы человечество задуматься о «глубоких рисках», создаваемых этими технологиями.

Сообщение «Бывший учёный OpenAI Илья Суцкевер запускает SSI для безопасности ИИ» впервые появилось на Baffic.