
夕小瑤科技說 分享
來源 | 學術頭條
量子計算機有可能徹底改變藥物發現、材料設計和基礎物理學–前提是,我們能夠讓它們可靠地工作。
如今,人工智慧(AI)也有望徹底改變數子計算機。
今日凌晨,谷歌釋出了一種基於 Transformers、能夠以最先進的精度識別量子計算錯誤的解碼器——AlphaQubit,加快了構建可靠量子計算機的進度。
谷歌 CEO Sundar Pichai 在 X 上寫道,“AlphaQubit 利用 Transformers 對量子計算機進行解碼,在量子糾錯準確性方面達到了新的技術水平。人工智慧與量子計算的交匯令人興奮。”

相關研究論文以“_Learning high-accuracy error decoding for quantum processors_”為題,已發表在權威科學期刊 Nature 上。

準確識別錯誤,是使量子計算機能夠大規模執行長時間計算的關鍵一步,為科學突破和許多新領域的發現打開了大門。
糾正量子計算錯誤
量子計算機利用物質在最小尺度上的獨特特性,如疊加和糾纏,以比經典計算機少得多的步驟解決某些型別的複雜問題。這項技術依賴於量子位元(或量子位 ),量子位元可以利用量子干擾篩選大量的可能性,從而找到答案。
量子位元的自然量子態會受到各種因素的破壞:硬體中的微小缺陷、熱量、振動、電磁干擾甚至宇宙射線(宇宙射線無處不在)。
量子糾錯透過使用冗餘提供了一個解決方案:將多個量子位元組合成一個邏輯量子位元,並定期對其進行一致性檢查。解碼器透過使用這些一致性檢查來識別邏輯量子位元中的錯誤,從而儲存量子資訊,並對其進行糾正。

建立神經網路解碼器
AlphaQubit 是基於神經網路的解碼器,它借鑑了谷歌開發的深度學習架構 Transformers,該架構是當今許多大語言模型(LLM)的基礎。利用一致性檢查作為輸入,它的任務是正確預測邏輯量子位元在實驗結束時的測量結果是否與準備時的結果相反。
研究團隊首先對模型進行了訓練,從而解碼來自 Sycamore 量子處理器(量子計算機的中央計算單元)內一組 49 量子位元的資料。為了教會 AlphaQubit 解決一般的解碼問題,他們使用量子模擬器生成了數以億計的示例,這些示例跨越了各種設定和誤差水平。然後,他們透過給 AlphaQubit 提供來自特定 Sycamore 處理器的數千個實驗樣本,針對特定的解碼任務對其進行微調。
在新的 Sycamore 資料上進行測試時,AlphaQubit 與之前的前沿解碼器相比,在準確性方面樹立了新的標準。在最大規模的 Sycamore 實驗中,AlphaQubit 的錯誤率比張量網路方法低 6%,而張量網路方法雖然精度高,但速度卻非常慢。AlphaQubit 的錯誤率也比相關匹配法低 30%,後者是一種精確的解碼器,速度快到足以擴充套件。

泛化到訓練資料以外
為了瞭解 AlphaQubit 如何適應誤差水平較低的大型裝置,研究團隊使用多達 241 量子位元的模擬量子系統資料對其進行了訓練,因為這超出了 Sycamore 平臺的可用範圍。
同樣,AlphaQubit 的效能也優於領先的演算法解碼器,這表明它將來也能用於中型量子裝置。

AlphaQubit 還展示了一些先進功能,比如接受和報告輸入和輸出的置信度。這些資訊豐富的介面有助於進一步提高量子處理器的效能。
當研究團隊在包含多達 25 輪糾錯的樣本上對 AlphaQubit 進行訓練時,它在多達 100000 輪的模擬實驗中保持了良好的效能,這表明它有能力泛化到訓練資料以外的場景。
即時糾錯仍須加速
谷歌表示,AlphaQubit 是利用機器學習進行量子糾錯的一個重要里程碑。但他們仍然面臨著速度和可擴充套件性方面的重大挑戰。
例如,在快速超導量子處理器中,每個一致性檢查每秒要測量一百萬次。雖然 AlphaQubit 在準確識別錯誤方面非常出色,但要在超導處理器中即時糾錯,它的速度仍然太慢。隨著量子計算的發展,商業應用可能需要數百萬量子位元,這亟需更高效的資料方法來訓練基於人工智慧的解碼器。


