
最近,第十屆中國大學生程式設計競賽(China Collegiate Programming Contest,CCPC)舉行。 位元組 Seed 作為贊助商,攜 Seed-Thinking 非正式參與了最後的比賽。結果卻讓很多人比較意外,Seed-Thinking 只做出了一道簽到題(指專門設計得比較簡單,讓選手“打卡”或“熱身”的題目)。據悉,CCPC final 賽的題目數量在 10~13 題不等,這次題目資訊還未公佈。

隨後,Seed 的工作人員在知乎上也釋出了一些其他模型的參賽結果:
-
Seed-Thinking,1 題(C 題)
-
o3/o4,都是 1 題(G 題)
-
Gemini 2.5 pro,1 題 (C 題)
-
DeepSeek R1,0 題
根據參賽選手的描述,這些難題中,C 題和 G 題相對來說比較偏向於是“簽到題”的。OpenAI、谷歌、DeepSeek 參賽成績也是比較讓人意外的。
“根據之前的 codeforces rating 分數,假如那些大模型是人類選手,應該不止這個成績。”小紅書博主“AI 實話實說”評價道。codeforces rating 是一個人長期參加某線上比賽的平均表現,大家通常會根據這個分數判斷一個人的水平並且對應到某個比賽的表現。
“有可靠訊息表明,出題人並沒有專門出題要讓大模型做不出來。”該博主對 AI 前線表示。
“實際上,從賽前的評估結果看,我個人對這個結果是有一些預期的。出於評估目的,非 XCPC 選手出身的我,在賽前把前幾年的 CCPC-final 差不多全看了一遍,大體對 CCPC-final 的難度有了個預估:挺難的,對我和模型而言都挺難的。”該員工表示。
據其介紹,位元組 Seed 團隊的參賽方式是:人類不參與任何一道題的思考,純讓模型自己試。現場的三位參賽人員擔任“駕駛員 + 修理工”的角色。
對於很多人關於“人類選手場上偷摸做題”的擔憂,該員工也表示“這個可能性比較低”,“因為幾位同事雖然現在都是資深的 LLM 工程師,但是演算法競賽水平可能還沒到能在本場 CCPC 上砍瓜切菜的程度。同時,這場比賽也沒有明顯的簽到題。另外,模型在 codeforces 上的表現其實已經超過了三位同事不少。”
“至於最終成績,只能說是很悲壯了。賽中的幾個小時,場外的大夥一直不停打地在重新整理榜單,可惜直到封榜都沒能看到 model AC 掉任何一題。好在最後場上的同事非常神勇地判斷出了哪道題最籤一點,保住了 Al 的最後一點面子。”該工作人員說道。
此外,該工作人員也表示這次本次比賽題目相較去年會新一些,如果是去年的 CCPC final,模型表現會更好一些。
不過,評論區也有網友指出,“Gemini 2.5 pro 非常變態,只要你把你的 io 和 debug 資訊給它,迭代幾次就成功了,我用這個打了好幾次 cf 了,基本上你只要會給提示大部分題都能 AC。測下來人為輔助給一些基本提示的話,AI 能寫出 70% 的題。關鍵在怎麼給 AI 提示,AI 的自我糾錯已經非常厲害了。”
“感覺大模型技能樹確實有點不一樣。”位元組工作人員還在知乎上提到。
包括 Seed-Thinking 在內,位元組 Seed 進行測試的來自四家公司的模型在架構上也有一定的代表性:
-
Seed-Thinking-v1.5 採用 MoE 架構,包含 200B 總引數與 20B 啟用引數。研究團隊在強化學習訓練中整合了 STEM 問題、程式碼任務、邏輯推理和非推理資料,針對可驗證和不可驗證的問題使用不同的獎勵建模方法。
-
o3 採用“推理專用架構”,專注於解決複雜問題。它擁有 128 層 Transformer,並集成了專門的符號推理引擎,使其在數學處理和邏輯推理方面達到人類水平的精度。o4-mini 基於“效率最佳化架構”構建,透過量化技術和動態算力分配,將引數量縮減至 o3 的五分之一,同時保持了相近的效能。它在即時任務中處理速度比 o3 提升了 3.2 倍。
-
Gemini 2.5 Pro 建立在原生多模態架構上,支援文字、影像、音訊及程式碼等多源輸入,並支援百萬 Token 上下文視窗,使其能夠處理超大文件、影片指令碼與完整程式碼庫。雖然沒有詳細技術介紹,但其技術突破在於強化學習、思維鏈提示和後訓練。
-
DeepSeek R1 由一個嵌入層、61 個 Transformer 層以及輸出階段的多個預測頭構成,直接將強化學習應用於基礎模型,無需依賴監督微調 (SFT) 作為初始步驟,使模型能夠探索解決複雜問題的思路鏈。
單就在上述模型在 CCPC final 比賽中的表現,不同模型架構並未表現出特別大的差異。
“這其實說明大模型在做演算法題上其實是很有短板的”上述博主說道,“這件事 OpenAI 在他們拿 ioi 金牌的那篇論文沒有說。”
在今年 2 月,OpenAI 釋出了關於推理模型在競技程式設計中應用的研究論文,其中,在 IOI 2024 國際資訊學奧林匹克競賽的測試中,o3 拿到了 395.64 分,達成金牌成就。
OpenAI 得出結論是:透過擴充套件強化學習規模,不依賴特定人工設計的 test-time 策略,是推動 AI 在推理類任務(如競賽程式設計)中達到最先進水平的一條可靠路徑。
不過,該博主解釋稱,OpenAI 的 o3 可以拿到 **IOI** 金牌,原因是團隊針對演算法題進行了專門的 agentic 訓練,即允許模型使用工具(比如 python 直譯器)來執行自己的程式碼,觀察程式碼的輸出並修改程式碼,而位元組的這次比賽是非 agentic 的。
演算法題都要透過程式設計解決。有些題的做法非常獨特和需要創意,可能和模型見過以前的任何題目,乃至題目的組合都不一樣。在這種前提下,模型就很難做好,這與人不會解題的原因類似。
另外,該博主指出,比較標準比賽的獎項是衡量大模型能力的有效方式,但在演算法題領域用學歷來衡量很不合理。因為厲害的選手都是很小就學,最厲害的選手大概是高中生,而不專門練習的博士生可能打不過小學生。
就在 4 月份,微軟首席軟體工程師 Alex Svetkin,將 Anthropic、DeepSeek、Google、xAI、OpenAI 的 7 個大模型在兩組 LeetCode 演算法題上進行了基準測試:一組是廣為人知的“經典”題目;另一組是最新發布的“未見過”題目,目的是看這些打模型解決新型演算法問題的能力是否有所提升。具體測試結果如下:

(上:經典題目測試結果;下:“未見過”題目測試結果)
結果表明,所有模型在經典題目上的透過率都非常高。為了節省時間和呼叫額度,Svetkin 沒有測試表現更強的模型或衍生版本(例如啟用推理能力的 Claude 3.7 Sonnet、DeepSeek R1、Gemini 2.5 Pro 和 OpenAI O1),“因為它們的結果幾乎可以預見”。
在“未見過”的題目上,測試結果在兩個方面表現出了顯著差異:
-
對所有模型而言,“未見過”題目的透過率都更低,尤其在中等和困難題上尤為明顯。
-
啟用了“推理”或“思考”模式的模型在各個難度級別的題目上表現更好,不過具體的提升幅度因模型而異。
對於經典題目透過率顯著更高的原因,Svetkin 表示這是因為這些題目及其標準解法很可能出現在模型的訓練資料中,模型只需復現已知的正確答案即可。在面對新的中等和困難題目時,人類的透過率也明顯低於在“已知”題集上的表現。這種差異較難量化,它並不一定意味著新題“更難”。
所有啟用了“推理”模式的模型在效能上都明顯優於其基礎版本。最重要的是,其中一些模型已經能夠解決相當比例的中等和困難題目。在所有啟用“推理”模式的模型中,o3-mini 表現最佳。值得指出的是,o3-mini 是專門為解決競賽程式設計問題而訓練的。
“不過,我不會斷言哪個模型更適合解演算法題,因為這高度依賴於 token 預算,同時還要綜合考慮推理延遲與使用成本。”Svetkin 說道。
參考連結:
https://www.zhihu.com/question/1903142349388886822
https://medium.com/%40johnpascualkumar077/in-depth-comparison-of-openais-latest-models-o3-and-o4-mini-features-differences-and-7436681f3957
https://hackernoon.com/testing-llms-on-solving-leetcode-problems-in-2025
宣告:本文為 AI 前線整理,不代表平臺觀點,未經許可禁止轉載
AICon 2025 強勢來襲,5 月上海站、6 月北京站,雙城聯動,全覽 AI 技術前沿和行業落地。大會聚焦技術與應用深度融合,匯聚 AI Agent、多模態、場景應用、大模型架構創新、智慧資料基建、AI 產品設計和出海策略等話題。即刻掃碼購票,一同探索 AI 應用邊界!!

今日薦文

你也「在看」嗎?👇