1/30訓練步驟復刻DeepSeek-R1-Zero,沈向洋姜大昕張祥雨等開源推理模型RL訓練方法

夢晨 西風 發自 凹非寺

量子位 | 公眾號 QbitAI
DeepSeek啥都開源了,就是沒有開源訓練程式碼和資料。
現在,開源RL訓練方法只需要用1/30的訓練步驟就能趕上相同尺寸的DeepSeek-R1-Zero蒸餾Qwen
國內大模型六小強之一的階躍星辰聯與清華聯合釋出Open Reasoner Zero(ORZ),由AI大拿沈向洋、階躍星辰創始人/CEO姜大昕、ResNet作者張祥雨等一眾大佬親自署名。
在響應長度上,用約17%的訓練步驟就能趕上DeepSeek-R1-Zero 671B。
值得關注的是,團隊還發現了一個重要的轉折點——
在訓練步驟約680步時,模型的訓練獎勵值、反思能力和回答長度同時出現顯著提升,疑似出現了DeepSeek-R1-Zero論文中類似的“頓悟時刻”(aha moment)
目前,研究訓練資料、訓練程式碼、論文、模型全都100%開源,開源許可證用的也是寬鬆的MIT Lisence。
開源48小時,就已速攬700+星星。
以下是更多細節。

複雜的獎勵函式不必要?!

透過廣泛的實驗,團隊證明了一種極簡主義的方法,帶有GAE的原版PPO就可以有效地擴充套件RL訓練(關鍵的引數設定是GAE λ= 1,折扣因子γ=1)
再加上基於規則的獎勵函式,足以在推理任務上同時擴大響應長度和基準效能,類似於DeepSeek-R1-Zero中觀察到的現象。
這一結果表明複雜的獎勵函式是不必要的。
另外,團隊在不依賴任何基於KL的正則化技術的情況下實現了穩定的訓練,這與RLHF和推理模型領域目前的認知不同,這也為進一步擴大強化學習規模提供了希望。
同時擴大資料數量和多樣性對於Open Reasoner Zero的訓練至關重要。雖然在像MATH這樣有限的學術資料集上訓練會導致效能快速達到平臺期,但精心策劃的大規模多樣化資料集能夠實現持續擴充套件,在訓練集和測試集上都沒有飽和的跡象。
在以Qwen2.5-Base-7B為基礎模型的實驗中,所有基準測試在某個時間點都會經歷獎勵和響應長度的突然增加,這種現象類似於湧現行為。
在整個訓練過程中,Average Correct Reflection Length始終高於 Average Response Length。一個特別值得注意的現象出現在第 680步附近,可以觀察到三個指標同時加速。
最終,Open-Reasoner-Zero模型在MMLU和MMLU_PRO基準測試中,無需任何額外的指令調整即可超越 Qwen2.5 Instruct。

One More Thing

只提了一嘴,是因為研究還未完全完成(Working in Progress),隨時可能有新進展,感興趣的盆友可以關注一哈。
專案地址: 
https://github.com/Open-Reasoner-Zero/Open-Reasoner-Zero/
評選報名2025年值得關注的AIGC企業&產品
下一個AI“國產之光”將會是誰?
本次評選結果將於4月中國AIGC產業峰會上公佈,歡迎參與!
一鍵關注 👇 點亮星標
科技前沿進展每日見
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!

相關文章