
阿里妹導讀

什麼是QwQ-32B ?
3月6日,阿里雲釋出並開源了全新的推理模型通義千問QwQ-32B。透過大規模強化學習,千問QWQ-32B在數學、程式碼及通用能力上實現質的飛躍,整體效能比肩Deepseek-R1。在保持強勁效能的同時,千問QwQ-32B還大幅降低了部署使用成本,其引數量約為 DeepSeek-R1 滿血版的 1/21 且推理成本是後者的1/10。
在一系列權威基準測試中,千問QwQ-32B模型表現異常出色,幾乎完全超越了OpenAI-o1-mini,比肩最強開源推理模型DeepSeek-R1:在測試數學能力的AIME24評測集上,以及評估程式碼能力的LiveCodeBench中,千問QwQ-32B表現與DeepSeek-R1相當,遠勝於o1-mini及相同尺寸的R1蒸餾模型;在由Meta首席科學家楊立昆領銜的“最難LLMs評測榜”LiveBench、谷歌等提出的指令遵循能力IFEval評測集、由加州大學伯克利分校等提出的評估準確呼叫函式或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek-R1。此外,千問QwQ-32B模型中還集成了與智慧體Agent相關的能力,使其能夠在使用工具的同時進行批判性思考,並根據環境反饋調整推理過程。
整體架構
本文介紹如何透過百鍊平臺呼叫QwQ-32B開源模型。百鍊平臺提供的標準化 API 介面,免去了自行構建模型服務基礎設施的麻煩,並支援負載均衡及自動擴縮容,確保了 API 呼叫的高穩定性。此外,結合使用 Chatbox 視覺化介面客戶端,使用者無需進行命令列操作,即可透過直觀的圖形介面輕鬆完成 QwQ 模型的配置與使用。
按照本方案提供的配置完成後,會在本地搭建一個如下圖所示的執行環境。本方案的技術架構包括百鍊模型服務:支援透過 OpenAI SDK 或 OpenAI 相容的 HTTP 方式快速體驗 QwQ 模型。

部署流程
一、獲取百鍊 API-KEY
2. 滑鼠懸停於頁面右上角的

圖示上,在下拉選單中單擊API-KEY。

-
在左側導航欄,選擇全部API-KEY或我的API-KEY,然後建立或檢視 API-KEY,最後複製 API-KEY 以便在下一步驟中使用。
(享有 100萬 免費 token ,百鍊新使用者從開通起算 180 天內有效,百鍊老使用者從 3 月 6 日 0 點起算 180 天內有效。實際使用中可能會因超出免費額度而產生費用,請以控制檯顯示的實際報價以及最終賬單為準。)
二、使用 Chatbox 客戶端配置 百鍊 API 進行對話

-
執行並配置百鍊 API ,單擊設定。

-
在彈出的看板中按照如下表格進行配置。
專案
|
說明
|
示例值
|
模型提供方
|
下拉選擇模型提供方。
|
新增自定義提供方
|
名稱
|
填寫定義模型提供方名稱。
|
百鍊 API
|
API 域名
|
填寫模型服務呼叫地址。
|
https://dashscope.aliyuncs.com/compatible-mode/v1
|
API 路徑
|
填寫模型服務呼叫路徑。
|
/chat/completions
|
API 金鑰
|
填寫模型服務呼叫 API 金鑰。
|
填寫 上一步驟獲取的百鍊 API-KEY
|
模型
|
填寫呼叫的模型(本方案以 qwq-32b 模型為例,可自行配置其它模型進行體驗)。
|
qwq-32b
|
-
最終配置如下圖所示,然後單擊儲存。

-
在文字輸入框中可以進行對話互動。輸入問題你是誰?或者其他指令後,呼叫模型服務獲得相應的響應。

點選閱讀原文透過百鍊平臺呼叫QwQ-32B開源模型吧~
參考連結:
[1]https://bailian.console.aliyun.com/
[2]https://chatboxai.app/zh#download
即刻擁有 QwQ-32B,效能比肩全球最強開源推理模型
QwQ-32B 模型具有強大的推理能力,其引數量約為 DeepSeek-R1 滿血版的 1/21 且推理成本是後者的1/10,在數學、程式碼等核心指標(AIME 24/25、LiveCodeBench)達到 DeepSeek-R1 滿血版水平。本方案介紹 QwQ-32B 的多種部署方式,使用者可靈活選擇,即開即用。
點選連結檢視詳情:
https://www.aliyun.com/solution/tech-solution/qwq-for-platforms?utm_content=g_1000402640