8 月 8 日,谷歌 DeepMind 在社交媒體平臺 X(原 Twitter)上分享了他們最新研究項目的見解,該項目涉及一款用於打乒乓球的機器人系統。

Google DeepMind 是一家著名的人工智能 (AI) 研究實驗室,隸屬於 Google 母公司 Alphabet Inc.。它由兩支領先的 AI 團隊合併而成:Google Brain 和原 DeepMind 團隊。這一聯合努力將 Google DeepMind 推向了 AI 創新的前沿,專注於開發能夠解決一些最複雜的科學和工程挑戰的先進 AI 系統。

DeepMind 最初成立於 2010 年,非常重視深度強化學習,這是一種將深度學習與強化學習結合的方法。該實驗室因創建 AlphaGo 而受到廣泛關注,這是第一個在圍棋遊戲中擊敗世界冠軍的人工智慧系統,這項壯舉被認為領先了時代十年。這項成功推動了人工智慧的進一步進步,包括 AlphaFold 的開發,這是一種能夠以極高的準確性預測蛋白質結構 3D 模型的人工智慧,徹底改變了生物學領域。

2023年,Google將其人工智慧研究部門合併,成立GoogleDeepMind,旨在統一力量,加速人工智慧領域的進步。他們最近的項目之一是 Gemini,這是一種下一代人工智慧模型,據報道,在特定基準測試中,該模型的性能優於一些現有的人工智慧模型,例如 GPT-4。

根據 Google Deepmind 在 X 上的帖子,乒乓球長期以來一直被用作機器人研究的基準,因為這項運動將高速身體運動、戰略決策和精確度獨特地結合在一起。自 1980 年代以來,研究人員一直利用該遊戲作為開發和完善機器人技能的測試平台,使其成為 Google DeepMind 最新人工智慧驅動探索的理想候選者。

為了訓練乒乓球機器人,Google DeepMind 首先收集了初始球狀態的綜合資料集。該資料集包括球的位置、速度和旋轉等關鍵參數,這些參數對於理解和預測比賽期間球的軌跡至關重要。透過使用這個龐大的資料庫進行練習,機器人能夠發展出一系列乒乓球所需的技能,包括正手上旋球、反手瞄準和接發球能力。

訓練過程最初是在模擬環境中進行的,這使得機器人能夠在精確模擬乒乓球物理原理的受控環境中進行練習。一旦機器人在模擬環境中表現出熟練程度,它就會被部署到現實場景中與人類對手對抗。這種現實世界的實踐產生了額外的數據,然後將其反饋到模擬中,以進一步完善機器人的能力,從而在模擬和現實之間創建連續的反饋循環。

該專案的關鍵創新之一是機器人適應不同對手的能力。 Google DeepMind 設計該系統是為了追蹤和分析人類對手的行為和比賽風格,例如他們更喜歡將球回回球桌的哪一側。這種能力使機器人能夠嘗試各種技術,監控其有效性並即時調整其策略,類似於人類玩家如何根據對手的傾向改變策略。

在研究過程中,該機器人與 29 名不同技能水平的人類對手進行了對抗,從初學者到高級玩家。該機器人的表現是在這些不同層面上進行評估的,總體而言,它在參與者中排名中等,表明它處於中級業餘愛好者的水平。然而,當面對更高級的玩家時,機器人就遇到了限制。 Google DeepMind 承認,該機器人無法持續擊敗高級玩家,並列舉了反應速度、相機感測能力、旋轉處理以及在模擬中準確建模槳橡膠的挑戰等因素作為影響因素。

Google DeepMind 透過反思這項工作的更廣泛影響來結束其主題。他們強調了乒乓球等運動如何為測試和開發機器人能力提供豐富的環境。就像人類可以學習執行需要身體技能、感知和策略決策的複雜任務一樣,機器人也可以,只要它們有適當的訓練和適應系統。這項研究不僅推動了機器人領域的發展,還提供瞭如何訓練機器來處理複雜的現實世界任務的見解,可能為人工智慧和機器人技術的未來創新鋪平道路。

自 20 世紀 80 年代以來,機器人乒乓球一直是此類研究的基準。 pic.twitter.com/IX7VuDyC4J

— 谷歌 DeepMind (@GoogleDeepMind) 2024 年 8 月 8 日

精選圖片來自Pixabay