Алтман мечтает, чтобы ИИ «любил человечество»; ИИ прошел долгий путь
Генеральный директор OpenAI Сэм Алтман выразил смелое стремление для ИИ: чтобы он «любил человечество».
Хотя он уверен, что эту черту можно встроить в системы ИИ, он признает, что нет никаких гарантий.
«Я так думаю», — заметил Алтман, когда его спросила старший помощник декана Гарвардской школы бизнеса Дебора Спар.
Сэм Алтман говорит, что если у него есть одно желание для ИИ, то это было бы, чтобы он «любил человечество», и что согласование системы ИИ для работы определенным образом работает удивительно хорошо pic.twitter.com/zQJmviq0W8
— Царятрустра (@tsarnick) 20 ноября 2024 года
То, что когда-то казалось областью научной фантастики, от романов Айзека Азимова до киноэпопей Джеймса Кэмерона, эволюционировало в серьезную и неотложную дискуссию.
Идея восстания ИИ, ранее отвергнутая как спекулятивная, стала легитимной регуляторной проблемой.
Разговоры, которые когда-то могли быть отнесены к конспирологическим теориям, теперь формируют политические дискуссии по всему миру.
Алтман подчеркнул "весьма конструктивные" отношения OpenAI с правительством, признавая важность сотрудничества в навигации по быстрому развитию ИИ.
Он также отметил, что проект такого масштаба мог бы идеальным образом возглавляться правительствами, подчеркивая огромные социальные последствия, связанные с его развитием.
Алтман отметил:
«В хорошо функционирующем обществе это был бы проект правительства. Учитывая, что этого не происходит, я думаю, лучше, что это происходит как американский проект.»
Руководящие принципы безопасности ИИ все еще не достигнуты
Федеральное правительство добилось небольшого прогресса в продвижении законодательства по безопасности ИИ.
Недавняя попытка в Калифорнии стремилась привлечь к ответственности разработчиков ИИ за катастрофическое неправильное использование, такое как создание оружия массового уничтожения или атаки на критическую инфраструктуру.
Хотя законопроект прошел государственное законодательство, он в конечном итоге был наложен вето губернатором Гэвином Ньюсомом.
Необходимость обращения внимания на согласование ИИ с благосостоянием человека была подчеркнута некоторыми из самых влиятельных голосов в этой области.
Лауреат Нобелевской премии Джеффри Хинтон, которого часто называют «Крестным отцом ИИ», выразил серьезные опасения, признав, что не видит четкого пути к обеспечению безопасности ИИ.
Джеффри Хинтон говорит, что компании ИИ должны быть вынуждены использовать одну треть своих вычислительных ресурсов на исследования безопасности, потому что ИИ станет умнее нас в следующие 20 лет, и нам нужно начать беспокоиться о том, что произойдет тогда pic.twitter.com/ocT3Scmyxg
— Царятрустра (@tsarnick) 25 октября 2024 года
Аналогично, генеральный директор Tesla Илон Маск постоянно предупреждает, что ИИ представляет собой экзистенциальные риски для человечества.
Иронично, что Маск, активный критик текущих практик ИИ, был ключевой фигурой в основании OpenAI, предоставив значительное раннее финансирование — за это Алтман остается "благодарным", даже несмотря на то, что сейчас Маск подает в суд на организацию.
Проблема безопасности ИИ побудила создание специализированных организаций, посвященных решению этих проблем.
Группы, такие как Центр исследований согласования и Безопасная суперразумность, основанные бывшим научным руководителем OpenAI, возникли для изучения стратегий обеспечения работы систем ИИ в соответствии с человеческими ценностями.
Эти усилия подчеркивают растущее признание того, что быстрое развитие ИИ должно соответствовать таким же строгим мерам защиты, чтобы защитить будущее человечества.
Алтман надеется, что ИИ обретет эмпатию
Алтман считает, что текущий дизайн ИИ хорошо подходит для согласования, что делает более целесообразным, чем многие предполагают, обеспечить, чтобы системы ИИ не причиняли вред человечеству.
Он сказал:
«Одной из вещей, которая сработала удивительно хорошо, была способность согласовать систему ИИ вести себя определенным образом. Так что если мы сможем четко сформулировать, что это означает в ряде различных случаев, то да, я думаю, мы можем заставить систему действовать таким образом.»
Он предлагает инновационный подход к определению принципов и ценностей, которые должны направлять развитие ИИ: использовать сам ИИ для прямого взаимодействия с общественностью.
Алтман видит возможность использования ИИ-чат-ботов для опроса миллиардов пользователей, собирая информацию о их ценностях и приоритетах.
Способствуя глубокому и широкому общению, ИИ мог бы получить глубокое понимание социальных проблем и определить, какие меры лучше всего служат благосостоянию общества.
Он объяснил:
«Меня интересует мыслительный эксперимент [в котором] ИИ общается с вами в течение нескольких часов о вашей системе ценностей. Он делает это со мной, со всеми остальными. А затем говорит: 'ладно, я не могу сделать всех счастливыми все время.'»
Алтман предполагает, что этот коллективный отзыв затем может быть использован для согласования систем ИИ с более широкими интересами человечества, потенциально создавая рамки для работы ИИ в гармонии с общественными целями.
Этот подход не только подчеркивает потенциал ИИ как инструмента для содействия глобальному диалогу, но и поднимает провокационные вопросы.
Сэм Алтман говорит, что если у него есть одно желание для ИИ, то это было бы, чтобы он «любил человечество», и что согласование системы ИИ для работы определенным образом работает удивительно хорошо pic.twitter.com/zQJmviq0W8
— Царятрустра (@tsarnick) 20 ноября 2024 года
Может ли такой метод действительно уловить сложность человеческих ценностей?
И сможет ли он уравновесить разнообразные перспективы миллиардов, чтобы достичь единого видения общественного блага?
Идея Алтмана предлагает взгляд на то, как ИИ может не только служить человечеству, но и сотрудничать с ним для решения наших самых насущных проблем.
Многие бывшие сотрудники OpenAI беспокоятся, что безопасность отошла на второй план в ИИ.
У OpenAI когда-то была специализированная команда суперсогласования, сосредоточенная на предотвращении того, чтобы будущая цифровая суперразумность вышла из-под контроля и нанесла катастрофический ущерб.
В декабре 2023 года команда опубликовала раннюю исследовательскую статью, в которой описывался потенциальный процесс, в котором одна большая языковая модель будет контролировать другую, действуя как защитный механизм.
Однако к следующей весне команда была распущена после того, как ее лидеры, Илья Сутскевер и Ян Лейк, покинули компанию.
Лейк сослался на растущие разногласия с руководством OpenAI по поводу приоритетов безопасности, поскольку компания двигалась к искусственному общему интеллекту (AGI) — уровню интеллекта ИИ, сопоставимому с человеческим.
Создание машин, умнее человека, является по своей природе опасным начинанием.
OpenAI несет огромную ответственность от имени всего человечества.
— Ян Лейк (@janleike) 17 мая 2024 года
Его уход подчеркнул нарастающее напряжение между инновациями и безопасностью в гонке по разработке ИИ общего назначения (AGI).
Когда Лейк ушел, Алтман выразил благодарность за его вклад в посте в X (ранее известном как Twitter), но ситуация оставила многих в замешательстве относительно того, как OpenAI будет решать критические вопросы безопасности в будущем.
Я очень благодарен за вклад @janleike в исследования согласования и культуру безопасности OpenAI и очень грустно видеть, как он уходит. Он прав, у нас еще много работы; мы обязуемся это сделать. У меня будет более длинный пост в ближайшие несколько дней.
🧡 https://t.co/t2yexKtQEk
— Сэм Алтман (@sama) 17 мая 2024 года