阿里通義Qwen3上線,開源大軍再添一名猛將

Qwen這波,能處。
作者丨洪雨欣
編輯丨陳彩嫻
4月29日,通義App與通義網頁版全面上線阿里新一代通義千問開源模型 Qwen3。使用者可以第一時間在通義 App 和網頁版中的專屬智慧體 “千問大模型”,以及主對話頁面,體驗到最強開源模型的智慧能力。
Qwen3 一經發布便登頂全球最強開源模型,包含 8 款不同尺寸,均為全新的“混合推理模型”,智慧水平大幅提升的同時也更省算力。
其中,旗艦模型 Qwen3-235B-A22B 是一款混合專家(MoE)模型,該模型創下所有國產模型及全球開源模型的效能新高。在程式碼、數學、通用能力等基準測試中,Qwen3-235B-A22B 展現出多項具有競爭力的資料,直逼 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等頂級模型。
除此之外,小型 MoE 模型 Qwen3-30B-A3B 的啟用引數數量是 QwQ-32B 的 10%,表現更勝一籌。而 Qwen3-32B是一款稠密(Dense)模型,部署成本低、穩定高效,是企業部署首選。
通義還開源了兩個 MoE 模型的權重:一個是擁有 2350 多億總引數和 220 多億啟用引數的 Qwen3-235B-A22B,一個是擁有約 300 億總引數和 30 億啟用引數的小型 MoE 模型 Qwen3-30B-A3B。此外,六個 Dense 模型也已開源,包括 Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B,均在 Apache 2.0 許可下開源。
目前, Qwen3-30B-A3B等經過後訓練的模型已在 Hugging Face、ModelScope 和 Kaggle 等平臺上開放使用。使用者可在 Qwen Chat 網頁版 (chat.qwen.ai) 和通義 APP 中試用 Qwen3。
1
深思考,多語言
Qwen3 支援兩種思考模式:
  • 深入思考:在這種模式中,模型會逐步推理,經過深思熟慮後給出最終答案,非常適合需要深入思考的複雜問題。
  • 快速思考:在這種模式中,模型提供快速、近乎即時的響應,適用於那些對速度要求高於深度的簡單問題。
使用者可以根據具體任務控制模型進行“思考”的程度,複雜的問題可以透過深入思考來解決,而簡單的問題則可以透過快速作答。
值得關注的是,這兩種模式的結合大大增強了模型實現穩定且高效的“思考預算”控制能力,讓使用者能夠更輕鬆地為不同任務配置特定的預算,在成本效益和推理質量之間實現更優的平衡。
除了多種思考模式,Qwen3 模型還支援多語言功能,涵蓋了 119 種語言和方言。
X上網友也紛紛給出好評!
網友表示,Qwen 3 能快能慢,答案精準。對於編碼,它執行良好。對於數學,它保持平靜。對於語言,它非常真實。
“開源模型已經很久沒有這麼好了。”
2
預訓練,後訓練
Qwen3 預訓練實現了三重升級:
第一重,資料增強。預訓練語料規模達36萬億token,是Qwen2.5的2倍,覆蓋119種語言。通義透過多源資料構建了強大的資料集:
1. 網路資料+PDF文件提取(Qwen2.5-VL處理)
2. 專家模型合成數學/程式碼資料(Qwen2.5-Math/Coder生成教材/問答/程式碼)
第二重,階段訓練。預訓練過程分為三個階段:
1. S1基礎訓練:30萬億token(上下文長度為4K token),建立基礎能力
2. S2知識強化:5萬億token,提升STEM/程式設計/推理資料佔比
3. S3長文字適應:32K token上下文訓練,最佳化長文字處理
第三重,效能突破。
  • Dense模型:小引數量對標 Qwen2.5(如1.7B≈3B),STEM/程式設計/推理能力反超 Qwen2.5
  • MoE模型:使用10%啟用引數達到Qwen2.5 Dense水平,訓練推理成本大幅降低
後訓練方面,通義實施了一個四階段的訓練流程:
1. 長思維鏈冷啟動:涵蓋數學、程式碼、邏輯推理和 STEM 問題等多種任務和領域,配備基本推理能力
2. 長思維鏈強化學習:大規模強化學習,基於規則的獎勵增強模型的探索和鑽研能力
3. 思維模式融合:整合非思考模式,確保推理和快速響應能力無縫結合
4. 通用強化學習:應用強化學習於指令遵循、格式遵循和 Agent 能力等在內的 20 多個通用領域,增強模型的通用能力並糾正不良行為
3
Qwen3使用演示
首先來看 Hugging Face transformers 中使用 Qwen3-30B-A3B 的標準示例:
要停用思考模式,只需對引數 enable_thinking 進行如下修改:
可以使用 sglang>=0.4.6.post1 或 vllm>=0.8.4來建立一個與 OpenAI API 相容的 API endpoint:
若要停用思考模式,可以透過移除引數 –reasoning-parser(以及 –enable-reasoning)。
如果用於本地開發,可以透過執行簡單的命令 ollama run qwen3:30b-a3b 來使用 ollama 與模型進行互動,也可以使用 LMStudio 或者 llama.cpp 以及 ktransformers 等程式碼庫進行本地開發。
還有一種軟切換機制,允許使用者在 enable_thinking=True 時動態控制模型的行為,只需在使用者提示或系統訊息中新增 /think 和 /no_think,就可以逐輪切換模型的思考模式:
Qwen3 在工具呼叫方面同樣表現出色。Qwen-Agent 內部封裝了工具呼叫模板和工具呼叫解析器,降低程式碼複雜性:
今年1月份千問釋出Qwen2.5-Max,效能比肩DeepSeek V3、GPT-4和Claude-3.5-Sonnet。短短三個月又迎來 Qwen3,阿里在AGI這條路上又完成了一個里程碑。此次的亮點旨在"雙模推理"技術——允許使用者在深度推理的思考模式與及時響應的非思考模式間自由切換,並提供計算資源動態分配介面,為不同場景需求提供精準算力支援。
未來,通義團隊計劃從擴充套件資料規模、增加模型大小、延長上下文長度、拓寬模態範圍等方面提升模型效能,從訓練模型的時代,慢慢過渡到訓練 Agent 的時代。
參考資料:https://mp.weixin.qq.com/s/OvobsCPW0IwxeSm8pljv-A
更多內容,點選下方關注:

未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社群進行轉載!
公眾號轉載請先在「AI科技評論」後臺留言取得授權,轉載時需標註來源並插入本公眾號名片。

//
推薦閱讀

相關文章