谷歌研究人員發現了一種新技術,這種技術最終可能使量子計算在現實生活中變得可行,利用人工智能解決科學上最持久的挑戰之一:更穩定的狀態。
在《自然》雜誌上發表的一篇研究論文中,谷歌Deepmind科學家解釋說他們的新AI系統AlphaQubit在修正長期困擾量子計算機的持續錯誤方面表現得非常成功。
“量子計算機有潛力徹底改變藥物發現、材料設計和基礎物理——前提是我們能夠使其可靠工作,”谷歌的公告寫道。但沒有什麼是完美的:量子系統極其脆弱。即使是最輕微的環境干擾——如熱量、振動、電磁場,甚至宇宙射線——都可能干擾它們脆弱的量子狀態,導致計算不可靠的錯誤。
三月份的研究論文突出了這個挑戰:量子計算機的錯誤率在實際使用中需要僅爲十億次操作中的一個(10^-12)。然而,當前硬件的每次操作錯誤率在10^-3到10^-2之間,使得錯誤修正至關重要。
谷歌表示:“某些問題,傳統計算機需要數十億年才能解決,而量子計算機只需幾小時。”然而,這些新處理器比傳統處理器更容易受到噪聲的影響。
“如果我們想要使量子計算機在規模上更加可靠,我們需要準確識別和修正這些錯誤。”
谷歌的新AI系統AlphaQubit希望解決這個問題。該AI系統採用了一種複雜的神經網絡架構,在識別和修正量子錯誤方面表現出了前所未有的準確性,在大規模實驗中顯示出比以前最佳方法少6%的錯誤,比傳統技術少30%的錯誤。
它在從17個量子比特到241個量子比特的量子系統中保持了高準確性——這表明這種方法可以擴展到實用量子計算所需的更大系統。
引擎蓋下
AlphaQubit採用兩階段方法來實現其高準確性。
該系統首先在模擬的量子噪聲數據上進行訓練,學習量子錯誤的一般模式,然後利用有限的實驗數據適應真實的量子硬件。
這種方法使AlphaQubit能夠處理複雜的現實世界量子噪聲效應,包括量子比特之間的串擾、泄漏(當量子比特退出其計算狀態時)以及不同類型錯誤之間的微妙關聯。
但不要太興奮;你不會很快在車庫裏擁有一臺量子計算機。
儘管具有高準確性,AlphaQubit在實用實施之前仍面臨重大障礙。“快速超導量子處理器中的每個一致性檢查每秒測量一百萬次,”研究人員指出。“雖然AlphaQubit在準確識別錯誤方面表現出色,但在超導處理器中實時修正錯誤仍然太慢。”
“在更大的代碼距離上進行訓練更具挑戰性,因爲示例更復雜,並且在更大距離上的樣本效率似乎較低,”一位Deepmind發言人在接受Decrypt採訪時表示,“這很重要,因爲錯誤率與代碼距離呈指數級增長,因此我們預計需要解決更大的距離,以獲得在大型深度量子電路上進行容錯計算所需的超低錯誤率。”
研究人員將速度優化、可擴展性和集成作爲未來發展的關鍵領域。
人工智能和量子計算形成了一種協同關係,增強了彼此的潛力。“我們預計AI/ML和量子計算將保持互補的計算方法。人工智能可以應用於其他領域以支持容錯量子計算機的發展,例如校準、編譯或算法設計,”發言人在接受Decrypt採訪時表示,“與此同時,人們還在研究量子ML在量子數據中的應用,以及更具推測性的,量子ML算法在經典數據中的應用。”
這種收斂可能代表了計算科學中的一個關鍵轉折點。隨着量子計算機通過AI輔助的錯誤修正變得更加可靠,它們反過來可能有助於開發更復雜的AI系統,從而創造出一個強大的技術進步反饋循環。
實用量子計算的時代,長期被承諾卻從未兌現,可能終於更近了——雖然距離擔心半機械人末日的那一天還不夠近。
編輯:塞巴斯蒂安·辛克萊