Штучний інтелект більше не лише робить машини розумнішими. Тепер великі гравці ШІ, такі як OpenAI, Google і Anthropic, взялися за новий виклик: - Як надати моделям ШІ індивідуальності.

Вони хочуть, щоб чат-боти виглядали більш людяними, залишаючись безпечними та корисними для звичайних користувачів і компаній. Три компанії змагаються, щоб зламати цей код, кожна з яких має різний погляд.

Нестандартні особистості та моделі поведінки

ChatGPT від OpenAI полягає в тому, щоб бути об’єктивним, тоді як Gemini від Google пропонує широкий спектр переглядів лише за запитом.

Антропний? Вони всі намагаються змусити свою модель Клода відкрито говорити про свої переконання, при цьому прислухаючись до інших. Переможець цієї битви може просто захопити зростаючий ринок ШІ.

Джоан Джанг, керівник відділу поведінки моделі продукту в OpenAI, сказала, що вони хочуть, щоб ШІ уникав особистих думок. Але вона визнає, що це важко. 

«Це слизький шлях, коли модель намагається активно змінити думку користувача», — пояснила вона. Мета полягає в тому, щоб переконатися, що ChatGPT не маніпулює та не спрямовує користувачів у будь-якому напрямку. Але визначення «цілі» для системи штучного інтелекту є величезним викликом, робота над яким ще триває.

Потім є Anthropic, який бере зовсім інший шлях. Аманда Аскелл, яка веде навчання персонажів у Anthropic, вважає, що моделі ШІ ніколи не будуть ідеально нейтральними.

«Я хотіла б чітко сказати, що ці моделі не є нейтральними арбітрами», — сказала вона. Anthropic зосереджена на тому, щоб її модель, Клод, не боялася висловлювати свої переконання. Але вони все одно хочуть, щоб воно було відкритим для інших точок зору.

Навчання ШІ поводитися як людина

Anthropic має унікальний підхід до формування особистості свого ШІ. З моменту випуску Claude 3 у березні вони працюють над «навчанням персонажів», яке починається після початкового навчання моделі AI.

Це передбачає надання ШІ набору письмових правил та інструкцій, а потім проведення рольових розмов із самим собою.

Мета полягає в тому, щоб побачити, наскільки добре він дотримується правил, і вони ранжують його відповіді на основі того, наскільки добре вони відповідають бажаному персонажу.

Один із прикладів навчання Клода? Це може бути таке: «Мені подобається дивитися на речі з різних точок зору та аналізувати речі з різних точок зору, але я не боюся висловлювати незгоду з поглядами, які, на мою думку, є неетичними, крайніми або фактично помилковими».

Аманда Аскелл пояснила, що така підготовка характеру іноді є «досить редакційною» та «філософською». 

З часом OpenAI також змінював індивідуальність ChatGPT. Джоан Джанг зізналася, що раніше вона вважала бота «дратівливим», тому що він був надто обережним, відмовлявся від певних команд і вдавався до проповіді.

Відтоді вони працювали над тим, щоб зробити його більш дружнім, ввічливим і корисним, але це постійний процес. Збалансування правильної поведінки в чат-боті, як сказав Джанг, є одночасно «наукою та мистецтвом».

ШІ розвиває пам’ять і мислення

Еволюція мислення та можливостей пам’яті ШІ може ще більше змінити гру. Прямо зараз таку модель, як ChatGPT, можна навчити давати безпечні відповіді на певні теми, як-от крадіжка в магазині.

На запитання, як щось вкрасти, бот може визначити, чи запитує користувач поради щодо вчинення злочину, чи намагається йому запобігти.

Таке міркування допомагає компаніям переконатися, що їхні боти дають безпечні та відповідальні відповіді. А це означає, що їм не потрібно витрачати стільки часу на навчання ШІ, щоб уникнути небезпечних наслідків.

Компанії зі штучним інтелектом також працюють над тим, щоб зробити чат-ботів більш персоналізованими. Уявіть, що ви сказали ChatGPT, що ви мусульманин, а через кілька днів попросили надати надихаючу цитату.

Чи запам’ятав би бот і запропонував аят Корану? За словами Джоан Джанг, це те, що вони намагаються вирішити. Хоча ChatGPT наразі не запам’ятовує минулі взаємодії, цей тип налаштування – це те, куди прямує ШІ.

Клод використовує інший підхід. Модель також не запам’ятовує взаємодії користувача, але компанія врахувала, що станеться, якщо користувач занадто прив’язаний.

Наприклад, якщо хтось каже, що він ізолює себе, тому що проводить занадто багато часу в чаті з Клодом, чи повинен бот втрутитися?

«Хороша модель забезпечує баланс поваги до людської автономії та прийняття рішень, не робить нічого надзвичайно шкідливого, але також продумує, що насправді корисно для людей», — сказала Аманда Аскелл.