Odaily Planet Daily News 14 мая (в прошлый вторник) по восточному времени главный научный сотрудник OpenAI Илья Суцкевер официально объявил о своей отставке. В тот же день о своей отставке заявил и Ян Лейке, один из руководителей команды OpenAI Super Alignment. В пятницу OpenAI также подтвердила, что «Группа координации суперразведки», возглавляемая Сужково и Яном Лейком, была расформирована. Ранним утром 18 мая Джейн Лейк опубликовала 13 твитов в социальной платформе X, раскрыв настоящую причину своей отставки и дополнительную инсайдерскую информацию. В ответ на сенсационную информацию Джейн Лейк Альтман также опубликовал 18 мая срочный ответ: «Я очень благодарен Джейн Лейк за его вклад в исследования OpenAI по супервыравниванию искусственного интеллекта и культуру безопасности, и мне очень грустно, что он покинул К сожалению, он отметил, что нам еще предстоит много работы, и мы согласны с тем, что мы намерены продвигаться вперед в этой работе. Я напишу более подробную статью по этому вопросу в ближайшие несколько дней. Маск прокомментировал новость о расформировании команды «Super Alignment»: «Это показывает, что безопасность не является главным приоритетом OpenAI. Подводя итог, одно заключается в том, что вычислительных ресурсов недостаточно, а другое в том, что OpenAI недостаточно платит». внимание к безопасности. Джейн Лейк сказала, что необходимо вкладывать больше ресурсов и энергии в подготовку к новому поколению моделей искусственного интеллекта, но текущий путь развития не может успешно достичь цели, и его команда столкнулась с огромными проблемами в последние несколько месяцев. Трудно получить достаточные вычислительные ресурсы. Джейн Лейк также подчеркнула, что создание машин, превосходящих человеческий интеллект, полно рисков, и OpenAI берет на себя эту ответственность, но культура и процессы безопасности должны быть отодвинуты на второй план в процессе разработки продуктов OpenAI. AGI ставит безопасность на первое место. 17-го числа сайт U.S. Vox сообщил, что совет директоров OpenAI пытался уволить генерального директора Альтмана. В результате Альтман быстро вернул себе власть. Сотрудники, заботящиеся о безопасности, ушли в отставку или были уволены. Street Journal сообщил, что Сусквейл сосредоточил свое внимание на том, чтобы искусственный интеллект не причинял вреда людям, в то время как другие, в том числе Альтман, больше стремились способствовать развитию новых технологий.Журнал Wired сообщил, что Сузквейл был одним из четырех членов совета директоров, уволивших Альтмана в ноябре прошлого года. Источники в компании сообщили Vox.com, что сотрудники, заботящиеся о безопасности, потеряли доверие к Ultraman: «Это процесс постепенного разрушения доверия, как домино, падающее одно за другим». Они считают, что Ультрачеловек утверждает, что ставит безопасность на первое место, но противоречит сам себе в своем поведении. Американский технологический блог TechCrunch сообщил 18 числа, что OpenAI отказалась от исследований в области безопасности и вместо этого запустила новые продукты, такие как GPT-4o, что в конечном итоге привело к отставке двух лидеров команды Super Alignment. Неясно, когда и достигнет ли технологическая индустрия прорыва, необходимого для создания искусственного интеллекта, способного выполнить любую задачу, которую может выполнить человек. (Всемирная паутина)