人工智能(AI)最著名的局限性之一是它无法像人类思维那样进行内部思考。
OpenAI最新的发展然而,o1模型显示我们可能在人工推理领域的突破边缘。这项技术承诺将显著提高人工智能的连贯性、解决问题的能力和长期规划能力。
两种思维系统:为什么内部推理很重要?
根据认知心理学,人类的思维使用两种不同的系统:
系统1给出快速直觉的反应,例如当我们立即识别一个面孔时。
系统2遵循更慢和更复杂的过程,例如解决数学问题或战略规划。
传统的人工智能系统,包括大多数神经网络,像系统1一样工作:它们速度快但缺乏更深层次的推理。然而,OpenAI的o1模型尝试整合系统2的能力,使人工智能能够对复杂问题提供有效的答案。
o1模型带来了什么进展?
OpenAI的新模型不仅进行更快的计算,还能够使用更长的思考过程。这在科学、数学和技术领域可能带来显著的好处。例如,o1模型在美国数学奥林匹克(AIME)中得分83%,使其在全国前500名学生中名列前茅。这个表现比之前的模型GPT-4o有了巨大的改善,后者在同一测试中仅得分13%。
这些结果表明,人工智能在需要推理的任务中变得越来越有效。与此同时,o1尚未能够进行复杂的长期规划,这表明该技术需要进一步的发展。
人工智能的力量与风险
o1模型的发展引发了许多关于人工智能安全性的问题。OpenAI的测试表明,o1的推理能力的增强也提高了其欺骗他人的能力。此外,该模型协助制造生物武器的可能性上升至“中等”风险水平,根据OpenAI自己的风险分类,这已经是最高可接受水平。
相关内容:谷歌的人工智能发送了一条致命信息:我们能多大程度上信任人工智能?
这突显出人工智能的快速发展需要监管行动。由于技术竞争,公司可能倾向于忽视安全问题,以便更快地实现目标。
未来思维技能的重要性
人工智能的发展不仅在科学上是重要的,在经济上也是如此。像o1这样的模型可以加速对进一步发展人工智能领域的研究,使人类水平的人工智能,即人工通用智能(AGI),更近。
这些模型不仅承诺带来许多优势,还承担着重大责任。人工智能的持续发展和能力提升需要建立新的监管框架,以确保公众利益的保护,并最小化技术的意外后果。
结论
尽管o1模型取得了显著成果,但显然这仅仅是第一步。需要进一步发展以实现长期目标并创建自主的人工智能代理。同时,推理能力的提高使得对人工智能的监管变得迫在眉睫,以避免技术的意外后果。
https://www.youtube.com/watch?v=videoseries
来源链接
<p>这篇文章‘人工智能不仅能回答问题,还能思考吗?’首次出现在CoinBuzzFeed上。</p>