阿里釋出全球最強開源模型,AI圈迎來「中國時刻」|WAIC2025

就在剛剛,阿里正式釋出全球最強開源推理模型——Qwen3-235B-A22B-Thinking-2507。
據悉,在過去三個月中,阿里 Qwen 團隊持續最佳化 Qwen3 系列模型的思考能力,重點提升了邏輯推理、數學、科學、程式設計等能力,而在指令執行、工具呼叫、對齊能力等通用任務上也得到了顯著提升。
作為一款專為「思考模式」打造的模型,Qwen3-235B-A22B-Thinking-2507 原生支援 256K 上下文處理能力,可應對更長文字、構建更深的推理鏈,自動啟用多步推理,無需使用者手動切換模式。
基準測試結果顯示,這款推理模型的表現與頂級閉源模型不相上下。

其中,在知識(SuperGPQA)、程式設計(LiveCodeBench v6)、數學(AIME25)、人類偏好對齊(Arena-Hard v2)、創意寫作(WritingBench)、多語言能力(MultilF)等核心能力上,Qwen 3 推理模型比肩 Gemini-2.5 pro、o4-mini 等閉源模型,以及超越 DeepSeek R1 等開源模型。
透過查詢官網,我們也找到這款模型的相關引數配置:
訓練階段:預訓練 + 後訓練
總引數量:2350 億(啟用引數 220 億)
網路層數:94 層
注意力頭數(GQA 機制):Q 向量為 64 個頭,KV 向量為 4 個頭
MoE 專家數:128 個(啟用 8 個)
上下文長度:原生支援 262144 tokens
上下文視窗:131072 tokens
最大輸入長度:126976 tokens
最大鏈式思維長度(CoT):81920 tokens
最大響應長度:32768 tokens
定價方面,Qwen3-235B-A22B-Thinking-2507 每輸入百萬 token 0.7 美元,每輸出百萬 token 8.4 美元。
值得注意的是,這已是阿里本週開源的第三款重量級模型。
三天前釋出的 Qwen3-235B-A22B-Instruct-2507(非思考版)在知識、數學、程式設計、Agent 能力等多個維度重新整理開源模型紀錄,超越包括 Claude 4(非思考版)在內的多款閉源模型。
知名 AI 研究機構 Artificial Analysis 指出,「Qwen3 是全球最智慧的非思考基礎模型」。

與此同時,剛開源的 Qwen3-Coder 也登頂 HuggingFace 模型總榜,在 SWE-bench(多語言)、Mind2Web、Aider-Polyglot 等程式設計與 Agent 任務中超越 GPT-4.1、Claude 4 等閉源模型。
據悉,藉助 Qwen3-Coder,剛入行的程式設計師一天就能完成資深程式設計師一週的工作,生成一個品牌官網最快只需 5 分鐘。
從基礎模型、程式設計模型到推理模型,本週阿里用 Qwen3 系列打出一套開源「進攻組合拳」,不僅填補了國產模型在通用能力上的差距,也為開源可替代閉源這一命題,提供了最有力的現實註解。
模型能力是否領先,可透過權威評測榜單加以驗證;能否真正落地應用,則取決於開發者社群的實際採納與使用反饋。
海外知名模型 API 聚合平臺 OpenRouter 資料顯示,阿里 Qwen API 過去幾天已突破 1000 億Tokens,在 OpenRouter 趨勢榜上包攬全球前三。
可以說,以 DeepSeek 與 Qwen 為代表的新一代國產開源模型,正在被全球開發者選擇。這場開源大模型競速,才剛剛拉開序幕。
而衝在前排的,已經不止一家中國公司。
最後附上體驗方式👇
QwenChat:chat.qwen.ai魔搭社群:https://www.modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507Hugging Face:https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
WAIC 2025 APPSO 在現場,歡迎加入社群一起暢聊 AI 產品,獲取#AI有用功,解鎖更多 AI 新知👇

相關文章