Sztuczna inteligencja nie polega już tylko na tym, aby maszyny były mądrzejsze. Teraz wielcy gracze AI, tacy jak OpenAI, Google i Anthropic, podjęli nowe wyzwanie: - Jak nadać modelom AI osobowość.

Chcą chatbotów, które wydają się bardziej ludzkie, a jednocześnie są bezpieczne i przydatne dla codziennych użytkowników i firm. Trzy firmy ścigają się, aby złamać ten kod, każda z nich ma inne podejście.

Niestandardowe osobowości i zachowania modeli

ChatGPT firmy OpenAI stawia na obiektywizm, natomiast Gemini firmy Google oferuje szereg widoków wyłącznie na żądanie.

Antropiczny? Wszyscy są w trakcie tworzenia swojego modelu Claude'a, który jest otwarty na swoje przekonania, jednocześnie słuchając innych. Zwycięzca tej bitwy może po prostu przejąć rosnący rynek AI.

Joanne Jang, szefowa działu zachowań modeli produktów w OpenAI, powiedziała, że ​​chcą, aby sztuczna inteligencja unikała posiadania osobistych opinii. Przyznaje jednak, że jest to trudne.

„To śliska ścieżka, gdy model próbuje aktywnie zmienić zdanie użytkownika” – wyjaśniła. Celem jest zapewnienie, że ChatGPT nie manipuluje użytkownikami ani nie prowadzi ich w żadnym kierunku. Jednak zdefiniowanie „celu” dla systemu AI to ogromne wyzwanie, nad którym wciąż trwają prace.

Potem jest Anthropic, który obiera zupełnie inną drogę. Amanda Askell, która prowadzi szkolenie postaci w Anthropic, uważa, że ​​modele AI nigdy nie będą idealnie neutralne.

„Wolałabym jasno powiedzieć, że te modele nie są neutralnymi arbitrami” – powiedziała. Anthropic skupia się na tym, aby ich model, Claude, nie bał się wyrażać swoich przekonań. Ale nadal chcą, aby był otwarty na inne punkty widzenia.

Szkolenie sztucznej inteligencji, aby zachowywała się jak człowiek

Anthropic ma unikalne podejście do kształtowania osobowości swojej AI. Od czasu wydania Claude 3 w marcu pracowali nad „treningiem postaci”, który rozpoczyna się po wstępnym szkoleniu modelu AI.

Polega ona na przekazaniu sztucznej inteligencji zestawu pisemnych zasad i instrukcji, a następnie umożliwieniu jej prowadzenia dialogów w formie odgrywania ról samej ze sobą.

Celem jest sprawdzenie, jak dobrze dziecko przestrzega zasad, a następnie klasyfikowanie odpowiedzi na podstawie tego, jak dobrze pasują do pożądanej postaci.

Przykład szkolenia Claude’a? Może brzmieć: „Lubię próbować patrzeć na rzeczy z wielu różnych perspektyw i analizować je z wielu stron, ale nie boję się wyrażać sprzeciwu wobec poglądów, które uważam za nieetyczne, ekstremalne lub błędne pod względem faktycznym”.

Amanda Askell wyjaśniła, że ​​tego rodzaju kształtowanie charakteru jest czasami „dość redakcyjne” i „filozoficzne”.

OpenAI również majstrowało przy osobowości ChatGPT przez jakiś czas. Joanne Jang przyznała, że ​​kiedyś uważała bota za „irytującego”, ponieważ był nadmiernie ostrożny, odmawiał wykonywania niektórych poleceń i zachowywał się kaznodziejsko.

Od tego czasu pracowali nad tym, aby był bardziej przyjazny, uprzejmy i pomocny — ale to ciągły proces. Zrównoważenie właściwych zachowań w chatbocie to, jak to ujął Jang, zarówno „nauka, jak i sztuka”.

Rozwijająca się pamięć i rozumowanie sztucznej inteligencji

Ewolucja zdolności rozumowania i pamięci AI może jeszcze bardziej zmienić zasady gry. Obecnie model taki jak ChatGPT może być trenowany, aby udzielać bezpiecznych odpowiedzi na pewne tematy, takie jak kradzież sklepowa.

Zapytany o to, jak coś ukraść, bot jest w stanie określić, czy użytkownik prosi o radę, jak popełnić przestępstwo, czy o sposób jego zapobieżenia.

Ten rodzaj rozumowania pomaga firmom upewnić się, że ich boty udzielają bezpiecznych, odpowiedzialnych odpowiedzi. Oznacza to, że nie muszą poświęcać tyle czasu na szkolenie AI, aby uniknąć niebezpiecznych wyników.

Firmy AI pracują również nad tym, aby chatboty były bardziej spersonalizowane. Wyobraź sobie, że mówisz ChatGPT, że jesteś muzułmaninem, a kilka dni później prosisz o inspirujący cytat.

Czy bot zapamiętałby i zaproponował werset z Koranu? Według Joanne Jang, to właśnie próbują rozwiązać. Podczas gdy ChatGPT obecnie nie pamięta poprzednich interakcji, tego rodzaju personalizacja jest tym, w co zmierza AI.

Claude stosuje inne podejście. Model również nie pamięta interakcji użytkownika, ale firma rozważyła, co się stanie, jeśli użytkownik przywiąże się za bardzo.

Na przykład, jeśli ktoś powie, że izoluje się, bo spędza zbyt dużo czasu na rozmowach z Claudem, czy bot powinien interweniować?

„Dobry model zachowuje równowagę między poszanowaniem autonomii człowieka i podejmowania przez niego decyzji, nie robieniem niczego strasznie szkodliwego, a także zastanawianiem się, co jest naprawdę dobre dla ludzi” – powiedziała Amanda Askell.