
我宣佈,這周的 AI 圈只姓“通義”!
真的,給你們看看阿里這周是怎麼玩的。
大前天先上了個 Qwen3 非思考版,把開源基礎模型的標杆拉高一截。
前天凌晨大半夜甩出個 Qwen3-Coder 專攻程式碼,讓海內外整個社群直接沸騰。
中間留了一天悄悄上了個翻譯模型,還沒等大家消化完,今天直接把桌子給掀了——推出最強的“思考版”Qwen3。
我總結一下就是,週二開胃,週三加碼,今天直接掀了桌子。。
三天,三個頂級 Qwen 模型,這套操作下來,就一個感覺:那個最強的 Qwen 又回來了。而且這哪是搶回王座,這感覺更像是回來在邊上巡視了一圈,一步兩步三步,然後穩穩地坐在最強開源模型王座。
被卡皮坤秀到了!

我們從最熱乎的模型講起,也就是剛剛釋放的 Qwen3-235B-A22B-Thinking-2507。

當好多人的眼光還在 Kimi K2 身上時,這個全新的 Qwen3 推理模型,又重新定義了一次最強開源。

這個表現真的強的沒話說了。
最左側的紅色條狀是最新版本 2507 的成績,比上一版本 Qwen3 強了一大截,而且和閉源的 Gemini-2.5 pro、o4-mini 比,在很多硬核能力上,比如 AIME25、LiveCodeBench、Arena-Hard 上,已經開始反超 Gemini-2.5 pro、o4-min 這些頂級閉源模型。
這是更詳細的榜單表現,咱們直接上對比表格(除了 R1,其他都是頂尖閉源模型)。包括知識、推理、數學、編碼、對齊、代理、多語言能力。千問 3 推理模型的表現毫不遜色。

現在在 qwen chat 網頁端 https://chat.qwen.ai/,已經可以體驗了。

開源地址傳送門在此:
Huggingface 地址:https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507ModelScope地址:https://www.modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507
再來說下 Qwen3-Coder,這兩天被贊爆了,收割了巨佬們的賞識。
推特創始人 Jack Dorsey 語出驚人。

Huggingface CEO clem 不僅點讚了 Qwen3-Coder 新模型,而且刷屏瀑布流地誇 Qwen3-Coder。


還有 PerplexityCEO Aravind Srinivas 也認可 Qwen3-coder 實力。

Qwen3-Coder 的開源,引爆了 AI 程式設計話題熱潮。我們的社群裡反應比我還快,各種測試反饋已經滿天飛了。我必須說,這個熱度是真的好高。評論區裡都是清一色的要幹掉 Claude。

OpenRouter 資料顯示,阿里千問的 API 呼叫量暴漲,過去幾天已經超過了 1000 億 tokens,包攬最熱門呼叫模型的前三。

Coder 模型全稱是 Qwen3-Coder-480B-A35B-Instruct,基於 MoE 架構,擁有 480B 引數量,實際啟用只有 35B。原生支援 256K 上下文長度,可透過 yarn 等方式擴充套件至 1M。這對於程式設計場景至關重要。而且,可以靈活地接入到 Claude Code、Cline 這些已經有的工具裡。
終於讓社群有了一個能在複雜工作流中擔當重任的開原始碼“特種兵”。
Qwen3-Coder 在智慧體程式設計、瀏覽器使用和工具呼叫這三項核心任務的基準測試中,均達到了開源模型頂尖水平,效能和程式碼能力聞名的 Claude 3.5 Sonnet 媲美。

為啥 Qwen3-Coder 這麼強?
我發現他們為零應對 SWE-Bench 這類模擬真實世界的多輪互動任務,在 Qwen3-Coder 訓練中融合了長時程強化學習(Agent RL),並突破性地構建了一個能同時執行 20,000 個虛擬環境的訓練系統。透過大規模實戰訓練,Qwen3-Coder 在 SWE-Bench 基準上取得了開源模型的最佳戰績。

Qwen3-Coder 的核心能力與訓練正規化也有新的突破,比如:
-
Token 規模: 7.5 萬億 token 海量訓練(其中包含 70% 程式碼資料)。 -
上下文長度: 原生 256K,YaRN 擴充套件至 1M,高效處理大規模程式碼庫及動態資料。 -
合成數據: 利用 Qwen2.5-Coder 清理重寫含噪聲資料,提升質量。
來一個簡單的小測試。
我讓 Qwen3-Coder 生成一個掃雷遊戲,傳送完我的要求後,剛拿起手機正準備刷個抖音摸魚,還沒等我開啟應用,遊戲就已經生成好了。。。。過程非常絲滑,還支援一鍵部署:
在官網上,可以直接測試試用。
網址:https://chat.qwen.ai/
除了推理模型和編碼模型,基模也是全球最強。
就是 Qwen3-235B 的 Non-thinking 版本,模型全稱為 Qwen3-235B-A22B-Instruct-2507,已經在 7 月 22 日更新上線。
作為 Qwen3-235B 系列中一款專注於非推理模式(Non-thinking)的更新版本,Qwen3-235B(Non-thinking)模型引數配置與此前的 Qwen3-235B-A22B 基本一致,但是效能卻顯著提升。

絕大部分榜單的表現比閉源的 Claude Opus 4 非思考版本還要好。
依舊先放模型開源地址的傳送門
Huggingface地址:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507ModelScope地址:https://www.modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507
模型在通用能力基準測試中表現非常能打,而且因為模型對多語言長尾知識的加強訓練,它的“外語”水平直接突破天花板。




Artificial Analysis 非常直接的表達出
“千問3是全球最智慧的非思考基礎模型”。

結語
這周,Qwen 用一套“三箭齊發”的組合拳,覆蓋了通用、程式碼和深度思考的全場景,直接宣告:這周,是當之無愧的“通義時刻”!
但這波三連發真正厲害的地方,不只在於效能登頂,更在於它展現的格局:當一些海外巨頭忙著建造“圍牆花園”,把技術越鎖越緊時,Qwen 還是堅持反其道而行之,選擇把最頂尖的成果直接開源給全世界。
最頂尖的 AI 生產力工具,不是少數人的特權,而是直接送到了你我這樣的普通開發者手中。
當最強的工具握在了最多的創造者手中,真正的精彩,才剛剛拉開序幕 ~


