人工智慧不再只是让机器变得更聪明。现在,OpenAI、Google 和 Anthropic 等大型 AI 厂商面临著新的挑战:如何赋予 AI 模型个性。

他们希望聊天机器人感觉更人性化,同时对日常用户和企业保持安全和有用。这三家公司正在竞相破解这个密码,但各自的看法各不相同。

自订个性和模型行为

OpenAI 的 ChatGPT 注重客观,而 Google 的 Gemini 仅在被问到时才提供一系列观点。

人类学?他们全力以赴,让他们的克劳德模型公开自己的信念,同时仍然倾听他人的意见。这场战斗的胜利者可能会接管不断增长的人工智能市场。

OpenAI 产品模型行为负责人 Joanne Jang 表示,他们希望人工智能避免有个人观点。但她承认这很难。

她解释道:“让模型试图主动改变用户的想法是一种危险的行为。”目标是确保 ChatGPT 不会操纵或引导用户朝任何方向发展。但为人工智能系统定义“目标”是一项巨大的挑战,这项工作仍在进行中。

然后是 Anthropic,它采取了完全不同的路线。Anthropic 的人物训练负责人 Amanda Askell 认为,人工智能模型永远不会完全中立。

“我宁愿非常清楚地表明,这些模型并不是中立的仲裁者,”她说。Anthropic 专注于确保其模型 Claude 不害怕表达自己的信念。但他们仍然希望它对其他观点持开放态度。

训练人工智能像人类一样行事

Anthropic 对其 AI 的个性塑造有着独特的方法。自 3 月份 Claude 3 发布以来,他们一直在致力于“角色训练”,这项工作在 AI 模型的初始训练之后开始。

这包括为人工智能提供一套书面规则和指令,然后让它与自己进行角色扮演对话。

目标是看它遵守规则的程度,并根据其响应与所需角色的匹配程度对其进行排名。

克劳德的训练有素吗?他可能会说:“我喜欢尝试从许多不同的角度看待事物,并从多个角度分析事物,但我并不害怕表达对我认为不道德、极端或事实错误的观点的不同意见。”

阿曼达·阿斯克尔 (Amanda Askell) 解释说,这种性格训练有时“相当具有编辑性”和“哲学性”。

OpenAI 也一直在调整 ChatGPT 的个性。Joanne Jang 承认,她以前觉得这个机器人很“烦人”,因为它过于谨慎,拒绝某些命令,而且有点说教意味。

他们一直在努力让聊天机器人变得更加友好、礼貌和乐于助人——但这是一个持续的过程。正如 Jang 所说,平衡聊天机器人的正确行为既是“科学也是艺术”。

人工智能不断进化的记忆和推理

人工智能推理和记忆能力的进化可能会进一步改变游戏规则。目前,像 ChatGPT 这样的模型可能会被训练来对某些话题(例如商店偷窃)做出安全回应。

如果被问及如何偷窃某物,机器人可以判断用户是在寻求犯罪建议还是在试图阻止犯罪。

这种推理有助于公司确保他们的机器人给出安全、负责任的答案。这意味着他们不必花太多时间训练人工智能来避免危险的后果。

人工智能公司也在致力于让聊天机器人更加个性化。想象一下,如果你告诉 ChatGPT 你是一名穆斯林,几天后你就会要求对方说出一句励志名言。

机器人会记住并说出古兰经经文吗?据 Joanne Jang 称,这就是他们试图解决的问题。虽然 ChatGPT 目前无法记住过去的互动,但这种定制正是 AI 的发展方向。

Claude 采取了不同的方法。该模型也不记得用户交互,但该公司已经考虑过如果用户过于依赖会发生什么。

例如,如果有人说他们因为花了太多时间与克劳德聊天而变得孤立,那么机器人应该介入吗?

阿曼达·阿斯克尔说:“一个好的模型能够在尊重人类自主权和决策权之间取得平衡,不会做任何极其有害的事情,同时也会思考什么对人类真正有益。”