Искусственный интеллект больше не просто делает машины умнее. Теперь крупные игроки в области ИИ, такие как OpenAI, Google и Anthropic, взялись за новый вызов: как придать моделям ИИ индивидуальность.

Они хотят чат-ботов, которые кажутся более человечными, оставаясь безопасными и полезными для обычных пользователей и предприятий. Три компании спешат взломать этот код, каждая со своим подходом.

Индивидуальные особенности личности и модель поведения

ChatGPT от OpenAI нацелен на объективность, в то время как Gemini от Google предлагает различные точки зрения только по запросу.

Антропный? Они все за то, чтобы сделать свою модель Клода открытой в своих убеждениях, при этом прислушиваясь к другим. Победитель этой битвы может просто захватить растущий рынок ИИ.

Джоанн Джанг, руководитель поведенческой модели продукта в OpenAI, сказала, что они хотят, чтобы ИИ избегал личных мнений. Но она признает, что это сложно.

«Это скользкая дорожка — позволить модели попытаться активно изменить мнение пользователя», — объяснила она. Цель состоит в том, чтобы гарантировать, что ChatGPT не будет манипулировать пользователями или вести их в каком-либо направлении. Но определение «цели» для системы ИИ — это огромная задача, которая все еще находится в стадии разработки.

А есть Anthropic, который идет совершенно другим путем. Аманда Аскелл, которая руководит обучением персонажей в Anthropic, считает, что модели ИИ никогда не будут идеально нейтральными.

«Я бы предпочла ясно сказать, что эти модели не являются нейтральными арбитрами», — сказала она. Anthropic сосредоточена на том, чтобы ее модель, Клод, не боялась выражать свои убеждения. Но они все равно хотят, чтобы она была открыта для других точек зрения.

Обучение ИИ вести себя как человек

У Anthropic уникальный подход к формированию личности своего ИИ. С момента выпуска Claude 3 в марте они работали над «обучением персонажа», которое начинается после первоначального обучения модели ИИ.

Это подразумевает предоставление ИИ набора письменных правил и инструкций, а затем проведение им ролевых бесед с самим собой.

Цель состоит в том, чтобы увидеть, насколько хорошо он придерживается правил, и они ранжируют его ответы на основе того, насколько хорошо они соответствуют желаемому персонажу.

Один из примеров обучения Клода? Он мог бы сказать: «Мне нравится пытаться смотреть на вещи с разных точек зрения и анализировать вещи с разных сторон, но я не боюсь выражать несогласие с точками зрения, которые я считаю неэтичными, крайними или фактически ошибочными».

Аманда Аскелл объяснила, что такой тип воспитания характера порой носит «довольно редакционный» и «философский» характер.

OpenAI также со временем вносила изменения в личность ChatGPT. Джоанн Джанг призналась, что раньше считала бота «раздражающим», потому что он был слишком осторожен, отказывался выполнять некоторые команды и вел себя как нравоучитель.

С тех пор они работали над тем, чтобы сделать его более дружелюбным, вежливым и полезным, но это непрерывный процесс. Баланс между правильным поведением в чат-боте — это, как выразился Джанг, «и наука, и искусство».

Развитие памяти и рассуждений ИИ

Эволюция возможностей рассуждения и памяти ИИ может изменить игру еще больше. Прямо сейчас модель вроде ChatGPT может быть обучена давать безопасные ответы на определенные темы, например, на тему кражи в магазине.

Если спросить, как что-то украсть, бот может понять, просит ли пользователь совета по совершению преступления или пытается его предотвратить.

Такой тип рассуждений помогает компаниям убедиться, что их боты дают безопасные, ответственные ответы. И это означает, что им не нужно тратить много времени на обучение ИИ, чтобы избежать опасных результатов.

Компании, занимающиеся ИИ, также работают над тем, чтобы сделать чат-ботов более персонализированными. Представьте, что вы говорите ChatGPT, что вы мусульманин, а затем через несколько дней просите вдохновляющую цитату.

Будет ли бот помнить и предлагать стих Корана? По словам Джоанн Джанг, именно это они пытаются решить. Хотя ChatGPT в настоящее время не помнит прошлые взаимодействия, ИИ движется к такому типу настройки.

Клод использует другой подход. Модель также не запоминает взаимодействия пользователя, но компания учла, что произойдет, если пользователь слишком привяжется.

Например, если кто-то говорит, что он изолирует себя, потому что слишком много времени проводит в чатах с Клодом, должен ли бот вмешаться?

«Хорошая модель обеспечивает баланс между уважением к человеческой автономии и принятию решений, недопущением совершения чего-либо крайне вредного, но при этом продумыванием того, что на самом деле полезно для людей», — сказала Аманда Аскелл.