
作者 | 黃心怡
今日一則關於人工智慧領域的新聞引發廣泛關注。
據報道,李飛飛等斯坦福大學和華盛頓大學的研究人員以不到50美元的雲計算費用,成功訓練出了一個名為s1的人工智慧推理模型。該模型在數學和編碼能力測試中的表現,據稱與OpenAI的O1和DeepSeek的R1等尖端推理模型不相上下。
這一訊息無疑在AI界投下了一顆重磅炸彈,真相究竟如何?
《科創板日報》記者調查和採訪業內人士後發現,s1模型的訓練並非從零開始,而是基於阿里雲通義千問(Qwen)模型進行監督微調。這意味著,s1模型的神奇“低成本”,是建立在已具備強大能力的開源基礎模型之上。
▌通義模型的“基座”作用
根據李飛飛等人的研究論文,s1模型的訓練僅使用了1000個樣本資料。按照業內共識,這一資料量在AI訓練中可謂微乎其微,通常不足以訓練出一個具備推理能力的模型。
青年AI科學家、上海交通大學人工智慧學院謝偉迪副教授告訴《科創板日報》記者,如果仔細研究斯坦福s1的論文會發現,s1模型的神奇是以通義千問模型為基座進行微調,這1000個樣本訓練的作用更像是“錦上添花”,而非“從零開始”。
國內某知名大模型公司CEO也向《科創板日報》記者表示:“從論文原文來看,所謂用50美元訓練出新的具有推理能力的模型,實際上只是用從谷歌模型中提煉出來的1000個樣本,然後對通義千問模型進行監督微調。這種微調的成本確實很低,但明顯是站在既有領先模型的‘肩上’才能做到。”

斯坦福s1論文原文也註明模型是以阿里通義千問模型為基礎微調
謝偉迪指出,國內外還有其他團隊也聲稱用極低的成本,訓練出了具有推理能力的新模型。但一閱讀其論文原文,就會發現它們無一例外都是基於通義模型作為基座進行的。

國外多位人工智慧研究者也指出,不少的“新”模型都是建立通義模型基礎上
“以通義千問模型作為基座,確實可以用很少的樣本資料就達到產生新的推理模型的效果,但如果換成其他基座模型,新模型能力卻沒有任何的提升。所以,能力真正神奇的是Qwen模型,而不是s1。” 謝偉迪說。
▌低成本訓練大模型有侷限,但也是方向
儘管s1模型的低成本訓練在某種程度上展示了AI訓練的潛力,但其侷限性也不容忽視。
首先,這種低成本訓練依賴於已有的強大基座模型,如阿里通義千問模型。如果沒有這樣的基座模型,低成本訓練的效果將大打折扣。
其次,1000個樣本資料的訓練量在大多數情況下是不夠的,尤其是在需要處理複雜任務的場景中。
此外,低成本訓練的成功也引發了對AI模型智慧財產權和倫理問題的討論。如果越來越多的研究依賴於已有的基座模型進行微調,那麼這些基座模型的開發者是否應該獲得相應的回報?如何確保AI技術的公平使用和共享?這些問題都需要業界進一步探討和解決。
儘管s1模型的低成本訓練引發了爭議,但其背後的研究思路無疑為AI領域提供了新的思考方向。
武漢人工智慧學院一位資深研究人員向《科創板日報》記者表示,如何在保證模型效能的前提下,降低訓練成本,是AI研究的一個重要課題。未來,隨著技術的進步和演算法的最佳化,或許我們真的能夠看到更多低成本、高效能的AI模型問世。

