編輯:陳陳
即時強化學習來了!AI 再也不怕「卡頓」。
設想這樣一個未來場景:多個廚師機器人正在協作製作煎蛋卷。雖然我們希望這些機器人能使用最強大可靠的智慧模型,但更重要的是它們必須跟上瞬息萬變的節奏 —— 食材需要在精準時機新增,煎蛋過程需要即時監控以確保受熱均勻。只要機器人動作稍有延遲,蛋卷必定焦糊。它們還必須應對協作夥伴動作的不確定性,並做出即時適應性調整。

即時強化學習
然而,現有的強化學習演算法多基於一種理想化的互動模式:環境與智慧體輪流「暫停」以等待對方完成計算或響應。具體表現為:
環境暫停假設:當智慧體進行計算決策和經驗學習時,環境狀態保持靜止;
智慧體暫停假設:當環境狀態發生轉移時,智慧體暫停其決策過程。
這種類似「回合制遊戲」的假設,嚴重脫離現實,難以應對持續變化、延遲敏感的真實環境。

下圖突出顯示了智慧體在即時環境中出現的兩個關鍵困難,而這些在標準的回合制 RL 研究中是不會遇到的。
首先,由於動作推理時間較長,智慧體可能不會在環境的每一步都採取動作。這可能導致智慧體採用一種新的次優性策略,稱之為無動作遺憾(inaction regret)。
第二個困難是,動作是基於過去的狀態計算的,因而動作會在環境中產生延遲影響。這導致另一個新的次優性來源,這在隨機環境中尤為突出,稱之為延遲遺憾(delay regret)。
在這樣的背景下,Mila 實驗室兩篇 ICLR 2025 論文提出了一種全新的即時強化學習框架,旨在解決當前強化學習系統在部署過程中面臨的推理延遲和動作缺失問題,使得大模型也能在高頻、連續的任務中實現即時響應。
第一篇論文提出了一種最小化無動作遺憾的解決方案,第二篇提出了一種最小化延遲遺憾的解決方案。

最小化無動作:交錯推理
第一篇論文基於這樣一個事實:在標準的回合制強化學習互動正規化中,隨著模型引數數量的增加,智慧體無動作的程度也會隨之增加。因此,強化學習社群必須考慮一種新的部署框架,以便在現實世界中實現基礎模型規模化的強化學習。為此,本文提出了一個用於非同步多過程推理和學習的框架。

-
論文地址:https://openreview.net/pdf?id=fXb9BbuyAD
-
程式碼地址 https://github.com/CERC-AAI/realtime_rl
-
論文標題: ENABLING REALTIME REINFORCEMENT LEARNING AT SCALE WITH STAGGERED ASYNCHRONOUS INFERENCE

在該框架中,允許智慧體充分利用其可用算力進行非同步推理與學習。具體而言,本文提出了兩種交錯式推理演算法,其核心思想是透過自適應調整並行推理過程的時序偏移,使智慧體能夠以更快的固定間隔在環境中執行動作。
本文證明:只要計算資源足夠,無論模型有多大、推理時間有多長,使用任意一種演算法都可以做到在每一個環境步都執行動作,從而完全消除無動作遺憾。
本文在 Game Boy 和 Atari 即時模擬中測試了提出的新框架,這些模擬的幀率和互動協議與人類在主機上實際玩這些遊戲時所體驗到的幀率和互動協議同步。
論文重點介紹了非同步推理和學習在《寶可夢:藍》遊戲中使用一個擁有 1 億引數的模型成功捕捉寶可夢時所展現的卓越效能。需要注意的是,智慧體不僅必須快速行動,還必須不斷適應新的場景才能取得進展。

此外,論文還重點介紹了該框架在像俄羅斯方塊這樣注重反應時間的即時遊戲中的表現。結果證明,在使用非同步推理和學習時,模型規模越大,效能下降的速度就越慢。然而,大模型效能下降的根本原因是延遲遺憾效應尚未得到解決。
用單個神經網路最小化無動作和延遲遺憾

-
論文地址:https://openreview.net/pdf?id=YOc5t8PHf2
-
專案地址:https://github.com/avecplezir/realtime-agent
-
論文標題: HANDLING DELAY IN REAL-TIME REINFORCEMENT LEARNING
第二篇論文提出了一種架構解決方案,用於在即時環境中部署神經網路時最大限度地減少無響應和延遲,因為在即時環境中,交錯推理並非可行。順序計算在深度網路中效率低下,因為深度網路中每一層的執行時間大致相同。因此,總延遲會隨著網路深度的增加而成比例增加,從而導致響應緩慢。
這一侷限性與早期 CPU 架構的缺陷如出一轍 —— 當指令只能序列處理時,會導致計算資源利用率低下且執行時間延長。現代 CPU 採用 pipelining 技術成功解決了這一問題,該技術允許多條指令的不同階段並行執行。
受此啟發,本文在神經網路中引入了平行計算機制:透過一次計算所有網路層,有效降低了無動作遺憾。
為了進一步減少延遲,本文引入了時序跳躍連線(temporal skip connections),使得新的觀測資訊可以更快地傳遞到更深的網路層,而無需逐層傳遞。
該研究的核心貢獻在於:將平行計算與時序跳躍連線相結合,從而在即時系統中同時降低無動作遺憾和延遲遺憾。
下圖對此進行了說明。圖中縱軸表示網路層的深度,從初始觀測開始,依次經過第一層、第二層的表示,最終到達動作輸出;橫軸表示時間。因此,每一條箭頭代表一層的計算過程,所需時間為 δ 秒。
在基線方法中(左圖),一個新的觀測必須依次穿過全部 N 層網路,因此動作的輸出需要 N × δ 秒才能獲得。
透過對各層進行平行計算(中圖),可以將推理吞吐量從每 Nδ 秒一次提高到每 δ 秒一次,從而減少無動作遺憾。
最終,時序跳躍連線(如右圖所示)將總延遲從 Nδ 降低至 δ—— 其機制是讓最新觀測值僅需單次 δ 延遲即可傳遞至輸出層。從設計理念來看,該方案透過在網路表達能力與時效資訊整合需求之間進行權衡,從根本上解決了延遲問題。

此外,用過去的動作 / 狀態來增強輸入可以恢復馬爾可夫特性,即使在存在延遲的情況下也能提高學習穩定性。正如結果所示,這既減少了延遲,也減少了與最佳化相關的遺憾。

兩者結合使用
交錯式非同步推理與時序跳躍連線是彼此獨立的技術,但具有互補性。時序跳躍連線可減少模型內部從觀測到動作之間的延遲,而交錯推理則確保即使在使用大模型時,也能持續穩定地輸出動作。
兩者結合使用,可以將模型規模與互動延遲解耦,從而使在即時環境中部署既具有強表達能力、又響應迅速的智慧體成為可能。這對於機器人、自動駕駛、金融交易等高度依賴響應速度的關鍵領域具有重要意義。
透過使大模型在不犧牲表達能力的前提下實現高頻率決策,這些方法為強化學習在現實世界的延遲敏感型應用中落地邁出了關鍵一步。
參考連結:
https://mila.quebec/en/article/real-time-reinforcement-learning

© THE END
轉載請聯絡本公眾號獲得授權
投稿或尋求報道:[email protected]