人工智能(AI)最著名的侷限性之一是它無法像人類思維那樣進行內部思考。

OpenAI最新的發展然而,o1模型顯示我們可能在人工推理領域的突破邊緣。這項技術承諾將顯著提高人工智能的連貫性、解決問題的能力和長期規劃能力。

兩種思維繫統:爲什麼內部推理很重要?

根據認知心理學,人類的思維使用兩種不同的系統:

  • 系統1給出快速直覺的反應,例如當我們立即識別一個面孔時。

  • 系統2遵循更慢和更復雜的過程,例如解決數學問題或戰略規劃。

傳統的人工智能系統,包括大多數神經網絡,像系統1一樣工作:它們速度快但缺乏更深層次的推理。然而,OpenAI的o1模型嘗試整合系統2的能力,使人工智能能夠對複雜問題提供有效的答案。

o1模型帶來了什麼進展?

OpenAI的新模型不僅進行更快的計算,還能夠使用更長的思考過程。這在科學、數學和技術領域可能帶來顯著的好處。例如,o1模型在美國數學奧林匹克(AIME)中得分83%,使其在全國前500名學生中名列前茅。這個表現比之前的模型GPT-4o有了巨大的改善,後者在同一測試中僅得分13%。

這些結果表明,人工智能在需要推理的任務中變得越來越有效。與此同時,o1尚未能夠進行復雜的長期規劃,這表明該技術需要進一步的發展。

人工智能的力量與風險

o1模型的發展引發了許多關於人工智能安全性的問題。OpenAI的測試表明,o1的推理能力的增強也提高了其欺騙他人的能力。此外,該模型協助製造生物武器的可能性上升至“中等”風險水平,根據OpenAI自己的風險分類,這已經是最高可接受水平。

相關內容:谷歌的人工智能發送了一條致命信息:我們能多大程度上信任人工智能?

這突顯出人工智能的快速發展需要監管行動。由於技術競爭,公司可能傾向於忽視安全問題,以便更快地實現目標。

未來思維技能的重要性

人工智能的發展不僅在科學上是重要的,在經濟上也是如此。像o1這樣的模型可以加速對進一步發展人工智能領域的研究,使人類水平的人工智能,即人工通用智能(AGI),更近。

這些模型不僅承諾帶來許多優勢,還承擔着重大責任。人工智能的持續發展和能力提升需要建立新的監管框架,以確保公衆利益的保護,並最小化技術的意外後果。

結論

儘管o1模型取得了顯著成果,但顯然這僅僅是第一步。需要進一步發展以實現長期目標並創建自主的人工智能代理。同時,推理能力的提高使得對人工智能的監管變得迫在眉睫,以避免技術的意外後果。

https://www.youtube.com/watch?v=videoseries

來源鏈接

<p>這篇文章‘人工智能不僅能回答問題,還能思考嗎?’首次出現在CoinBuzzFeed上。</p>