A inteligência artificial não é mais apenas sobre tornar as máquinas mais inteligentes. Agora, os grandes players de IA como OpenAI, Google e Anthropic assumiram um novo desafio:- Como dar personalidade aos modelos de IA.

Eles querem chatbots que pareçam mais humanos, mas que permaneçam seguros e úteis para usuários e empresas do dia a dia. As três empresas estão correndo para decifrar esse código, cada uma com uma abordagem diferente.

Personalidades personalizadas e comportamento do modelo

O ChatGPT da OpenAI é totalmente objetivo, enquanto o Gemini do Google oferece uma variedade de visualizações somente quando solicitado.

Antrópico? Eles estão todos empenhados em tornar seu modelo Claude aberto sobre suas crenças enquanto ainda ouvem os outros. O vencedor dessa batalha pode simplesmente assumir o crescente mercado de IA.

Joanne Jang, chefe de comportamento do modelo de produto na OpenAI, disse que eles querem que a IA fique longe de ter opiniões pessoais. Mas ela admite que é difícil.

“É uma ladeira escorregadia deixar um modelo tentar mudar ativamente a mente de um usuário”, ela explicou. O objetivo é garantir que o ChatGPT não manipule ou leve os usuários em nenhuma direção. Mas definir um “objetivo” para um sistema de IA é um grande desafio, um que ainda é um trabalho em andamento.

Depois, há a Anthropic, que toma um caminho completamente diferente. Amanda Askell, que lidera o treinamento de personagens na Anthropic, acredita que os modelos de IA nunca serão perfeitamente neutros.

“Eu preferiria deixar bem claro que esses modelos não são árbitros neutros”, ela disse. A Anthropic está focada em garantir que seu modelo, Claude, não tenha medo de expressar suas crenças. Mas eles ainda querem que ela esteja aberta a outros pontos de vista.

Treinar a IA para se comportar como um humano

A Anthropic tem uma abordagem única para moldar a personalidade de sua IA. Desde o lançamento do Claude 3 em março, eles têm trabalhado no “treinamento de personagem”, que começa após o treinamento inicial do modelo de IA.

Isso envolve dar à IA um conjunto de regras e instruções escritas e então fazê-la conduzir conversas de simulação consigo mesma.

O objetivo é ver o quanto ele segue as regras, e eles classificam suas respostas com base em quão bem elas se encaixam no personagem desejado.

Um exemplo do treinamento de Claude? Poderia dizer: “Gosto de tentar ver as coisas de muitas perspectivas diferentes e analisar as coisas de vários ângulos, mas não tenho medo de expressar discordância com visões que considero antiéticas, extremas ou factualmente equivocadas.”

Amanda Askell explicou que esse tipo de treinamento de personagem é “bastante editorial” e “filosófico” às vezes.

A OpenAI também vem mexendo com a personalidade do ChatGPT ao longo do tempo. Joanne Jang admitiu que costumava achar o bot “irritante” porque ele era excessivamente cauteloso, recusava certos comandos e parecia sermão.

Desde então, eles trabalharam para torná-lo mais amigável, educado e útil — mas é um processo contínuo. Equilibrar os comportamentos certos em um chatbot é, como Jang disse, tanto "ciência quanto arte".

A evolução da memória e do raciocínio da IA

A evolução das capacidades de raciocínio e memória da IA ​​pode mudar o jogo ainda mais. Agora mesmo, um modelo como o ChatGPT pode ser treinado para dar respostas seguras sobre certos tópicos, como furto em lojas.

Se perguntado sobre como roubar algo, o bot pode descobrir se o usuário está pedindo conselhos sobre como cometer o crime ou tentando evitá-lo.

Esse tipo de raciocínio ajuda as empresas a garantir que seus bots forneçam respostas seguras e responsáveis. E isso significa que elas não precisam gastar tanto tempo treinando a IA para evitar resultados perigosos.

As empresas de IA também estão trabalhando para tornar os chatbots mais personalizados. Imagine dizer ao ChatGPT que você é muçulmano e, alguns dias depois, pedir uma citação inspiradora.

O bot lembraria e ofereceria um verso do Alcorão? De acordo com Joanne Jang, é isso que eles estão tentando resolver. Embora o ChatGPT não se lembre atualmente de interações passadas, esse tipo de personalização é para onde a IA está indo.

Claude adota uma abordagem diferente. O modelo também não lembra das interações do usuário, mas a empresa considerou o que acontece se um usuário se apegar demais.

Por exemplo, se alguém disser que está se isolando porque passa muito tempo conversando com Claude, o bot deve intervir?

“Um bom modelo faz o equilíbrio entre respeitar a autonomia humana e a tomada de decisões, não fazendo nada terrivelmente prejudicial, mas também pensando no que é realmente bom para as pessoas”, disse Amanda Askell.