阿里釋出Qwen3-Coder:4800億引數,實現開原始碼模型新SOTA

剛剛,阿里全新開原始碼模型 Qwen3-Coder 正式釋出。 
(來源:X
Qwen3-Coder 擁有多個尺寸,此次釋出的是最強大的版本,名為 Qwen3-Coder-480B-A35B-Instruct(以下簡稱 Qwen3-Coder)。
它是一款混合專家(MoE)模型,總引數量高達 4,800 億,啟用引數為 350 億,原生支援 256K token 的上下文,並可透過 YaRN 擴充套件到高達 百萬 token,支援 358 種程式語言。
圖 | Qwen3-Coder 在測試中的表現(來源:資料圖)
由於 Qwen3 系列模型的整體調整,Qwen3-Coder 僅支援非思考模式,不生成思考過程。
在注意力機制方面,Qwen3-Coder 採用了分組查詢注意力(GQA)方案,配備 96 個查詢(Q)注意力頭和 個鍵/值(KV)注意力頭,並擁有 160 個專家(Expert),其中 個專家被啟用。
圖 | Qwen3-Coder 模型總覽(來源:Qwen
據介紹,預訓練階段,Qwen3-Coder 從資料、上下文、合成數據三個不同角度進行擴充套件(scaling),以提升模型的程式碼能力。
在後訓練階段,研究團隊選擇在更豐富的真實程式碼任務上擴充套件程式碼強化學習(Code RL)訓練。透過自動擴充套件測試樣例,他們構造了大量高質量的訓練例項,成功釋放了強化學習的潛力:不僅顯著提升了程式碼執行成功率,還對其他任務帶來增益。
此前網友挖出線索,阿里團隊在程式碼中介紹 Qwen3-Coder 時寫道:“Qwen3-Coder-480B-A35B-Instruct 是一個強大的編碼專用語言模型,在程式碼生成、工具使用和代理任務方面表現出色。”
圖 網友先前挖出 Qwen3-Coder 的線索(來源:X
阿里表示,該模型“擁有卓越的程式碼和代理能力”。Qwen3-Coder 在代理式編碼、代理式瀏覽器使用和代理式工具使用上成為了開源模型的 SOTA,可以媲美 Claude Sonnet 4
Qwen3-Coder 也是受到了網友的大力追捧,程式碼庫上線一小時就收穫了 5.1k Star
圖 程式碼庫是 https://github.com/QwenLM/Qwen3-Coder(來源:GitHub
與此同時,阿里還推出並開源了一款用於代理式程式設計的命令列工具:Qwen Code
“Qwen Code 基於 Gemini Code 進行二次開發,但我們進行了提示詞和工具呼叫協議適配,使得 Qwen Code 可以最大程度激發 Qwen3-Coder 在代理式程式設計任務上的表現。”阿里在官網上表示。
(來源:資料圖
另外,Qwen3-Coder 也可以和 AI 社群優秀的程式設計工具結合使用,如 Claude CodeCline 等。開發者也可以透過阿里雲 Model Studio 呼叫 Qwen3-Coder API
目前,Qwen3-Coder 網頁版已經上線,筆者第一時間嘗試了它的程式設計水平。
(來源:https://chat.qwen.ai/
在只提供一句“克隆推特網頁設計和UI”提示的情況下,Qwen3-Coder 給出的結果還是不錯的:
圖 | Qwen3-Coder 生成的仿推特 UI(來源:資料圖
相比之下,ChatGPT(免費版)給出的結果則是有些簡陋,雖然文字和幾個功能區域都有,但幾乎沒有視覺元素:
圖 | ChatGPT 生成的仿推特 UI(來源:資料圖
筆者還讓 Qwen3-Coder 做了一個簡單的網頁版乒乓球遊戲,同樣只是一句話提示:“開發一個可以在網站上執行的乒乓球遊戲”。
程式碼生成後直接在 Artifact 上無縫執行,整個過程不到 20 秒,效果很驚豔,直接用鍵盤就能控制,支援兩人對戰,它還自主發揮加上了獲勝規則:
(影片:乒乓球)
而 ChatGPT 生成的雖然也能執行,但無論是美觀還是完整性,都遠不及 Qwen3-Coder
圖 | ChatGPT 生成的乒乓球遊戲截圖(來源:資料圖
最後是官方給出的兩段程式碼執行效果,分別是地球 3D 模擬和 Flappy Bird 遊戲:
(影片地球3D 模擬
(影片Flappy Bird 遊戲
此次釋出的 Qwen3-Coder 屬於阿里 Qwen3 系列。
三個月前,阿里釋出了千問 3Qwen3)系列模型,包括兩款混合專家 MoE 模型、六款密集模型和若干模型變種,例如後訓練、FP8 版本等等。
其中的旗艦模型 Qwen3-235B-A22B,總引數量高達 2,350 億(235B),其中啟用引數為 220 億(A22B),分佈在 94 個深層網路層中。
另外一個 MoE 模型 Qwen3-30B-A3B,尺寸較小,總引數量 300 億,啟用引數量 30 億。
圖 | 3 個月前釋出的 Qwen3,到現在已經多次迭代(來源:Qwen3
當時,Qwen3 系列引入了一種混合方法來解決問題,一個模型同時支援思考模式和非思考模式。但現在這種模式已經被取消。
就在 Qwen3-Coder 釋出的前一天,阿里同樣更新了 Qwen3 系列,新模型名為 Qwen3-235B-A22B-Instruct-2507(簡稱 Qwen3-2507),迭代速度令人驚喜。
阿里在官網表示,“經過與社群溝通和深思熟慮後,我們決定停止使用混合思維模式。取而代之的是,我們將分別訓練 Instruct 和 Thinking 模型,以獲得最佳質量。所以我們釋出了 Qwen3-235B-A22B-Instruct-2507 及其 FP8 版本,供大家使用。”
圖 | Qwen3-2507 與其他模型在多項基準測試成績上的對比(來源:資料圖
Qwen3-2507 在主流基準測試中表現優異。作為一款“沒有思考能力”的開源模型,它在 GPQAAIME25 和 LiveCodeBench v6 等測試中均超越了未開啟思考模式的 Claude Opus 4
可以說,無論是Qwen3-Coder 還是 Qwen3-2507,再加上 DeepSeek 和 Kimi,都是 AI 開源社群寶貴的財富。
在閉源模型各種刷榜的今天,它們難得的推動了大模型技術的普及化,為AI 社群開發者和研究人員提供了強大的免費工具。更重要的是,它們的廣受歡迎讓中國在全球 AI 開源領域佔據了重要一席。
圖 | Reddit 網友熱議:目前全球最好的開源模型都來自中國(來源:資料圖
這不僅能促進 AI 技術的普惠發展,還能有效降低創新門檻,讓更多開發者參與進來,共同構建一個更加開放和繁榮的 AI 生態系統。
反過來,這些模型未來在產業應用、學術研究和人才培養等方面都將發揮不可估量的作用,進一步加速中國在 AI 領域的進步。
參考資料:
https://qwenlm.github.io/blog/qwen3-coder/
https://qwenlm.github.io/blog/qwen3/
https://huggingface.co/Qwen/Qwen3-Coder-480B-A35B-Instruct
https://arxiv.org/pdf/2505.09388 


相關文章