量子處理器“牽手”GPU,港公佈新方案

除為更高效的量子計算應用鋪路,因可降低AI對海量資料的依賴,該項技術在醫療、金融等領或將有較大應用潛力
文|《財經》特派香港記者 焦建
編輯|蘇琦
隨著量子計算從技術研發嚮應用落地邁進,在量子計算與人工智慧技術(AI)結合的新領域,一項由中美兩國多所高校聯合進行的相關研究,於近日在中國香港特區正式公佈相關成果。
按照香港科技大學工學院公佈的此次新型量子計算方案,其主旨是讓量子處理器及相關裝置在極低溫環境下執行,以此克服人工智慧代理(AI Agents)與量子處理器之間的延遲問題。其相關含義及技術進路如下:
隨著AI技術、尤其是支援AI的圖形處理器(GPU)快速進步,如何將其與被認為是高效、快速計算未來的量子計算結合,正是當前全球科技研發的重要新路徑之一。
所謂量子計算,作為一項正規化變革技術,對其研究涵蓋計算機科學、物理學和數學等方面。因利用專門計算機硬體及與量子力學相關效應的演算法,例如疊加和量子干涉,其被認為可比傳統計算機更快地解決某些型別的複雜問題。
量子計算的相關研究主要包括硬體和應用程式開發,硬體包含量子處理器或量子計算機等。前者在技術層面往往被稱為量子處理單元,即QPU。而作為一種能與多個量子位進行謹慎互動的裝置,這種互動通常透過電訊號、微波、射頻或雷射脈衝等方法來實現。量子計算機則是一種能隔離並操控量子位的裝置。
簡言之,經典處理器使用位元來執行操作,量子計算機則使用量子位元(CUE 位元)來執行多維量子演算法。量子計算旨在利用量子物理學原理解鎖全新計算方式。
按照行業技術展望,隨著量子計算機逐漸成熟,其將與現有的超級計算機整合,解決最難處理的一些計算問題。事實上,在汽車、製藥、化工和金融服務等行業,目前已在較為積極探索佈局量子計算,以及推動GPU與其“牽手”,實現讓AI硬體調控量子處理器。
在行業發展前景方面,此前曾有相關報告指出:量子技術正在加速落地,並有望在2027年左右形成突破,屆時全球市場規模有望快速增長至超過400億美元。而待商業化應用進一步落地後,全球市場規模有望達千億美元級別。
但在現實發展速度方面,量子計算目前仍被普遍視為猶如十餘年前的人工智慧技術,即處於“都知道方向重要、但無法有效實現或落地”的尷尬狀態。2025年1月,以GPU產品聞名的英偉達執行長黃仁勳也曾就此表示,“非常有用”的量子計算機,可能要到幾十年後才會問世。
儘管如此,英偉達、IBM等相關企業仍在積極對此進行佈局。以建立量子計算和AI的協作關係為例:一方面,量子計算可加速執行 AI 應用,甚至有可能生成全新應用;另一方面,利用AI來改進量子計算(即通常所稱的量子AI)也正逐漸成為現實。
一種可能的方式,是AI正用於幫助開發和執行量子計算機。此外,AI也可用於應對操作量子計算機研發在各個方面的挑戰,包括實現更高效的糾錯、校準、裝置控制、任務排程和電路編譯。
但在AI透過GPU實現量子計算加速時,一個基本的技術難題在於:GPU在室溫下運作,量子處理器則因技術需要,須在絕對零度(攝氏零下273度)的超低溫下執行。此時處理器中的某些材料表現出重要的量子力學效應,即電子可毫無阻力地穿過相關材料,使其成為“超導體”,後續一系列反應才得以實現。
在目前的技術路線中,為克服困難實現二者結合,GPU與量子處理器的安裝通常會相隔數米,並透過線路連線。
但這往往會使指令傳輸顯著延遲。比喻而言,兩者只能靠“打電話”溝通而無法近距離“牽手”,因此在GPU發出指令後,量子處理器需花時間接收資訊,即時互動效率因延誤而大打折扣。在GPU架構中也存在一定程度類似的瓶頸,即視訊記憶體頻寬。作為衡量GPU記憶體效能的關鍵指標,其也將直接影響資料傳輸速度和相關計算的效率。
前述由香港科技大學方面新研究的意義由此產生,即透過將兩者距離縮短,大幅削減運算延誤的同時,使得效能提升。該項研究近日在行業學術期刊《自然材料》發表,其主題為“基於磁性拓撲絕緣體的低溫存內計算”。
該項研究團隊由該校電子及計算機工程學系助理教授邵啟明帶領,主旨是提出一種嶄新的低溫存內計算方案。這項研究由合作完成,除香港科技大學團隊,參與研究的還包括中國科學院物理研究所、香港城市大學、南方科技大學,以及加州大學洛杉磯分校。
究其技術核心,是由磁性拓撲絕緣體制作的霍爾器件實現AI加速器在量子處理器數十釐米的範圍內執行。為實現讓GPU更適應超低溫環境,該團隊使用了“磁性拓撲絕緣體”這一特殊材料製作霍爾器件,其在極寒環境下也能穩定導電,相當於為GPU穿上“防寒服”。
簡言之,這一材料的神奇之處在於,其既能支援量子計算的超低溫環境,又能穩定執行AI加速器。
而在推動量子運算與人工智慧的融合方面,該研究的主要核心突破則被認為主要包含在三方面,即應對極低溫環境、縮短傳輸時間,以及實現存內計算。作為一類新興的計算架構,存內計算指的是在儲存器陣列內完成邏輯運算,避免儲存器和處理器之間頻繁的資料搬移操作,目的同樣也是在提升算力的同時降低功耗。
在解釋相關技術的背景時,邵啟明則指出,“量子計算機的運算非常複雜,需要運用數千個量子位元。為進一步發掘其潛力,學術界近期開始藉助機器學習技術提升量子計算能力,尤其是在糾錯方面。”
在公佈相關成果時,邵啟明則表示:希望能透過整合人工智慧代理與訓練單元,致力進一步降低推理和線上訓練的延遲,為更高效的量子計算應用鋪路。
一位持續關注AI技術的科技人士對《財經》記者分析:透過“減少延遲”這一核心技術突破,相關方案或將被應用於輔助量子處理器直接參與AI模型的線上學習,加速AI模型的訓練。
“與此同時,透過結合低延遲的量子-AI介面,其可在更大程度上降低AI對海量資料的依賴。因此,在醫療、金融等更依賴小資料集的資料敏感領域,這項方案或許也會具有比較大應用潛力。”這位人士分析稱。
責編 | 張雨菲
題圖 | 視覺中國

相關文章