Umělá inteligence už není jen o tom, aby byly stroje chytřejší. Velcí hráči s umělou inteligencí jako OpenAI, Google a Anthropic nyní přijali novou výzvu: Jak dát modelům umělé inteligence osobnost.

Chtějí chatboty, které se cítí lidštější a přitom zůstávají bezpečné a užitečné pro běžné uživatele a firmy. Tyto tři společnosti se předhánějí v prolomení tohoto kódu, každá z nich má jiný přístup.

Vlastní osobnosti a chování modelu

ChatGPT od OpenAI je o objektivitě, zatímco Gemini od Googlu nabízí řadu pohledů pouze na dotaz.

antropický? Všichni pracují na tom, aby jejich model Claude otevřeně o svém přesvědčení, a přitom naslouchal ostatním. Vítěz této bitvy by mohl ovládnout rostoucí trh s umělou inteligencí.

Joanne Jang, vedoucí oddělení chování produktového modelu v OpenAI, řekla, že chtějí, aby se AI vyhýbala osobním názorům. Ale přiznává, že je to těžké. 

"Je to kluzký svah, nechat modelku, aby se pokusila aktivně změnit názor uživatele," vysvětlila. Cílem je zajistit, aby ChatGPT nemanipuloval ani nevedl uživatele žádným směrem. Ale definovat „cíl“ pro systém umělé inteligence je obrovská výzva, na které se stále pracuje.

Pak je tu Antropická, která jde úplně jinou cestou. Amanda Askell, která vede výcvik postav ve společnosti Anthropic, věří, že modely umělé inteligence nikdy nebudou dokonale neutrální.

"Raději bych byla velmi jasná, že tyto modely nejsou neutrálními arbitry," řekla. Anthropic se zaměřuje na to, aby se jeho model Claude nebál vyjádřit své přesvědčení. Ale stále chtějí, aby to bylo otevřené i jiným úhlům pohledu.

Školení umělé inteligence, aby se chovala jako člověk

Anthropic má jedinečný přístup k utváření osobnosti své AI. Od vydání Claude 3 v březnu pracují na „tréninku postavy“, který začíná po úvodním školení modelu AI.

To zahrnuje předání AI souborem písemných pravidel a instrukcí a poté ji nechat vést rozhovory se sebou samotnou.

Cílem je zjistit, jak dobře dodržuje pravidla, a seřadí jeho odpovědi podle toho, jak dobře odpovídají požadované postavě.

Jeden příklad Claudova tréninku? Mohlo by to říkat: „Rád se snažím vidět věci z mnoha různých perspektiv a analyzovat věci z více úhlů, ale nebojím se vyjádřit nesouhlas s názory, které považuji za neetické, extrémní nebo fakticky chybné.“

Amanda Askell vysvětlila, že tento druh tréninku postavy je občas „poměrně redakční“ a „filosofický“. 

OpenAI si také časem pohrává s osobností ChatGPT. Joanne Jang přiznala, že jí bot byl „otravný“, protože byl přehnaně opatrný, odmítal určité příkazy a vycházel z kázání.

Od té doby pracovali na tom, aby to bylo přátelštější, zdvořilejší a užitečnější – ale je to neustálý proces. Vyvážení správného chování u chatbota je, jak řekl Jang, „věda i umění“.

AI vyvíjí paměť a uvažování

Evoluce uvažování a paměťových schopností umělé inteligence by mohla změnit hru ještě více. Právě teď může být model, jako je ChatGPT, trénován, aby poskytoval bezpečné odpovědi na určitá témata, jako jsou krádeže v obchodech.

Pokud se bot zeptá, jak něco ukrást, dokáže zjistit, zda uživatel žádá o radu ohledně spáchání trestného činu, nebo se mu snaží zabránit.

Tento druh uvažování pomáhá společnostem zajistit, aby jejich roboti dávali bezpečné a zodpovědné odpovědi. A to znamená, že nemusí trávit tolik času školením AI, aby se vyhnuli nebezpečným výsledkům.

Společnosti AI také pracují na přizpůsobení chatbotů. Představte si, že ChatGPT řeknete, že jste muslim, a o pár dní později požádáte o inspirativní citát.

Vzpomněl by si robot a nabídl by verš z Koránu? Podle Joanne Jang se právě to snaží vyřešit. Zatímco ChatGPT si v současné době nepamatuje minulé interakce, k tomuto druhu přizpůsobení směřuje AI.

Claude má jiný přístup. Model si nepamatuje ani interakce uživatelů, ale společnost zvážila, co se stane, když se uživatel příliš připoutá.

Pokud například někdo říká, že se izoluje, protože tráví příliš mnoho času chatováním s Claudem, měl by zasáhnout robot?

"Dobrý model je vyvážený respektováním lidské autonomie a rozhodování, nedělá nic strašně škodlivého, ale také přemýšlí o tom, co je vlastně pro lidi dobré," řekla Amanda Askell.