La inteligencia artificial ya no consiste únicamente en hacer que las máquinas sean más inteligentes. Ahora, los grandes actores de la IA, como OpenAI, Google y Anthropic, han asumido un nuevo desafío: cómo darles personalidad a los modelos de IA.

Quieren chatbots que parezcan más humanos y que, al mismo tiempo, sean seguros y útiles para los usuarios y las empresas habituales. Las tres empresas están compitiendo para descifrar este código, cada una con un enfoque diferente.

Personalidades personalizadas y comportamiento del modelo

ChatGPT de OpenAI se centra en la objetividad, mientras que Gemini de Google ofrece una variedad de vistas solo cuando se lo solicita.

¿Antrópico? Todos están decididos a hacer que su modelo Claude sea abierto en cuanto a sus creencias, pero que al mismo tiempo escuche a los demás. El ganador de esta batalla podría apoderarse del creciente mercado de la inteligencia artificial.

Joanne Jang, directora de comportamiento del modelo de producto en OpenAI, dijo que quieren que la IA evite tener opiniones personales, pero admite que es difícil.

“Es una pendiente resbaladiza dejar que un modelo intente cambiar activamente la opinión de un usuario”, explicó. El objetivo es garantizar que ChatGPT no manipule ni lleve a los usuarios en ninguna dirección. Pero definir un “objetivo” para un sistema de IA es un gran desafío, que todavía está en proceso.

Luego está Anthropic, que toma un camino completamente diferente. Amanda Askell, quien dirige el entrenamiento de personajes en Anthropic, cree que los modelos de IA nunca van a ser perfectamente neutrales.

“Prefiero dejar muy claro que estos modelos no son árbitros neutrales”, dijo. Anthropic se centra en asegurarse de que su modelo, Claude, no tenga miedo de expresar sus creencias. Pero aún así quieren que esté abierto a otros puntos de vista.

Entrenando a la IA para que se comporte como un humano

Anthropic tiene un enfoque único para moldear la personalidad de su IA. Desde el lanzamiento de Claude 3 en marzo, han estado trabajando en el “entrenamiento del personaje”, que comienza después del entrenamiento inicial del modelo de IA.

Esto implica darle a la IA un conjunto de reglas e instrucciones escritas y luego hacer que mantenga conversaciones de juego de roles consigo misma.

El objetivo es ver qué tan bien cumple las reglas y clasifican sus respuestas según qué tan bien se ajustan al personaje deseado.

¿Un ejemplo de la formación de Claude? Podría decir: “Me gusta intentar ver las cosas desde diferentes perspectivas y analizarlas desde múltiples ángulos, pero no tengo miedo de expresar mi desacuerdo con opiniones que considero poco éticas, extremas o erróneas desde el punto de vista fáctico”.

Amanda Askell explicó que este tipo de entrenamiento de personajes es “bastante editorial” y “filosófico” a veces.

OpenAI también ha estado experimentando con la personalidad de ChatGPT a lo largo del tiempo. Joanne Jang admitió que solía encontrar al bot “molesto” porque era demasiado cauteloso, rechazaba ciertos comandos y parecía sermoneador.

Desde entonces, han trabajado para que sea más amigable, educado y útil, pero es un proceso continuo. Equilibrar los comportamientos correctos en un chatbot es, como dijo Jang, tanto “ciencia como arte”.

La evolución de la memoria y el razonamiento de la IA

La evolución de las capacidades de razonamiento y memoria de la IA podría cambiar las reglas del juego aún más. En este momento, un modelo como ChatGPT podría ser entrenado para dar respuestas seguras sobre ciertos temas, como el hurto en tiendas.

Si se le pregunta cómo robar algo, el bot puede determinar si el usuario está pidiendo consejos para cometer el delito o tratando de prevenirlo.

Este tipo de razonamiento ayuda a las empresas a asegurarse de que sus bots den respuestas seguras y responsables, y significa que no tienen que dedicar tanto tiempo a entrenar a la IA para evitar resultados peligrosos.

Las empresas de inteligencia artificial también están trabajando para que los chatbots sean más personalizados. Imagínate decirle a ChatGPT que eres musulmán y, unos días después, pedirle una cita inspiradora.

¿El robot recordaría y ofrecería un versículo del Corán? Según Joanne Jang, eso es lo que están tratando de resolver. Si bien ChatGPT actualmente no recuerda interacciones pasadas, este tipo de personalización es hacia donde se dirige la IA.

Claude adopta un enfoque diferente. El modelo tampoco recuerda las interacciones del usuario, pero la empresa ha tenido en cuenta lo que ocurre si un usuario se encariña demasiado.

Por ejemplo, si alguien dice que se está aislando porque pasa demasiado tiempo chateando con Claude, ¿debería intervenir el bot?

“Un buen modelo logra un equilibrio entre respetar la autonomía humana y la toma de decisiones, sin hacer nada terriblemente dañino, pero también pensando en lo que es realmente bueno para las personas”, dijo Amanda Askell.