L'intelligence artificielle ne se limite plus à rendre les machines plus intelligentes. Aujourd'hui, les grands acteurs de l'IA comme OpenAI, Google et Anthropic se sont lancés un nouveau défi : donner une personnalité aux modèles d'IA.

Ils veulent des chatbots qui se sentent plus humains tout en restant sûrs et utiles pour les utilisateurs quotidiens et les entreprises. Les trois entreprises se battent pour déchiffrer ce code, chacune avec une approche différente.

Personnalités personnalisées et comportement du modèle

ChatGPT d’OpenAI a pour objectif d’être objectif, tandis que Gemini de Google offre une gamme de vues uniquement sur demande.

Anthropique ? Ils sont tous d’accord pour que leur modèle Claude soit ouvert sur ses convictions tout en restant à l’écoute des autres. Le vainqueur de cette bataille pourrait bien prendre le contrôle du marché en pleine croissance de l’IA.

Joanne Jang, responsable du comportement des modèles de produits chez OpenAI, a déclaré qu'ils souhaitaient que l'IA évite d'avoir des opinions personnelles. Mais elle admet que c'est difficile.

« C’est une pente glissante que de laisser un modèle essayer de changer activement l’avis d’un utilisateur », a-t-elle expliqué. L’objectif est de s’assurer que ChatGPT ne manipule pas ou ne guide pas les utilisateurs dans une direction quelconque. Mais définir un « objectif » pour un système d’IA est un énorme défi, qui reste encore à relever.

Il y a aussi Anthropic, qui emprunte une voie complètement différente. Amanda Askell, qui dirige la formation des personnages chez Anthropic, estime que les modèles d’IA ne seront jamais parfaitement neutres.

« Je préfèrerais être très claire sur le fait que ces modèles ne sont pas des arbitres neutres », a-t-elle déclaré. Anthropic s’efforce de s’assurer que son modèle, Claude, n’a pas peur d’exprimer ses convictions. Mais ils veulent quand même qu’il soit ouvert à d’autres points de vue.

Entraîner l'IA à se comporter comme un humain

Anthropic a une approche unique pour façonner la personnalité de son IA. Depuis la sortie de Claude 3 en mars, ils travaillent sur « l’entraînement des personnages », qui commence après l’entraînement initial du modèle d’IA.

Il s’agit de donner à l’IA un ensemble de règles et d’instructions écrites, puis de lui demander de mener des conversations de jeu de rôle avec elle-même.

Le but est de voir à quel point il respecte les règles, et ils classent ses réponses en fonction de leur adéquation avec le personnage souhaité.

Un exemple de la formation de Claude ? Il pourrait dire : « J’aime essayer de voir les choses sous différents angles et de les analyser sous plusieurs angles, mais je n’ai pas peur d’exprimer mon désaccord avec des points de vue que je considère comme contraires à l’éthique, extrêmes ou erronés. »

Amanda Askell a expliqué que ce type de formation de caractère est parfois « assez éditorial » et « philosophique ».

OpenAI a également modifié la personnalité de ChatGPT au fil du temps. Joanne Jang a admis qu’elle trouvait le bot « ennuyeux » parce qu’il était trop prudent, refusait certaines commandes et avait un ton moralisateur.

Depuis, ils ont travaillé pour le rendre plus convivial, poli et utile, mais c’est un processus continu. Équilibrer les bons comportements dans un chatbot est, comme le dit Jang, à la fois « une science et un art ».

L’évolution de la mémoire et du raisonnement de l’IA

L’évolution des capacités de raisonnement et de mémoire de l’IA pourrait changer encore davantage la donne. À l’heure actuelle, un modèle comme ChatGPT pourrait être formé pour donner des réponses sûres sur certains sujets, comme le vol à l’étalage.

Si on lui demande comment voler quelque chose, le robot peut déterminer si l'utilisateur demande des conseils pour commettre le crime ou s'il essaie de l'empêcher.

Ce type de raisonnement permet aux entreprises de s’assurer que leurs robots fournissent des réponses sûres et responsables. Cela signifie qu’elles n’ont pas besoin de passer autant de temps à former l’IA pour éviter des résultats dangereux.

Les entreprises d’intelligence artificielle travaillent également à rendre les chatbots plus personnalisés. Imaginez que vous dites à ChatGPT que vous êtes musulman, puis que vous lui demandez une citation inspirante quelques jours plus tard.

Le bot se souviendrait-il d’un verset du Coran et le lui proposerait-il ? Selon Joanne Jang, c’est ce qu’ils essaient de résoudre. Bien que ChatGPT ne se souvienne pas actuellement des interactions passées, ce type de personnalisation est la direction que prend l’IA.

Claude adopte une approche différente. Le modèle ne mémorise pas non plus les interactions des utilisateurs, mais l’entreprise a réfléchi à ce qui se passe si un utilisateur s’attache trop au produit.

Par exemple, si quelqu’un dit qu’il s’isole parce qu’il passe trop de temps à discuter avec Claude, le robot devrait-il intervenir ?

« Un bon modèle parvient à trouver un équilibre entre le respect de l’autonomie humaine et la prise de décision, en évitant de faire quoi que ce soit de terriblement nuisible, mais aussi en réfléchissant à ce qui est réellement bon pour les gens », a déclaré Amanda Askell.