騰訊開源推理模型!13B引數比肩OpenAIo1,1張GPU就能跑

騰訊日均請求超億次的混元大模型開源了!
作者 |  王涵
編輯 |  漠影
智東西6月27日報道,今日,騰訊混元宣佈開源首個混合推理MoE模型Hunyuan-A13B,總引數80B,啟用引數僅13B,是元首個開源推理模型,騰訊將其稱為“業界首個13B級別的MoE開源混合推理模型”。
▲騰訊混元Github頁面(圖源:Github)
Hunyuan-A13B模型是騰訊內部應用和呼叫量最大的大語言模型之一,有超過400+業務用於精調或者直接呼叫,日均請求超1.3億。與其之前開源的混元large相比,Hunyuan-A13B引數更小,但是效能和效果都有一定提升。
在官方釋出的基準測試上,Hunyuan-A13B模型在數學、推理、Agent呼叫等能力上超越Qwen3-A22B、DeepSeek-R1-0120以及OpenAI-o1-1217,甚至在長文字上能和Gemini 2.5 pro“掰手腕”。
在使用者端進入Hunyuan-A13B模型主頁後,可以選擇開啟“快思考”模式,“快思考”模式提供簡潔、高效的輸出,適合追求速度和最小計算開銷的簡單任務,如不點選按鈕,則預設為“慢思考”模式,可以輸出更深、更全面的推理步驟,如反思和回溯等。
此外,在開發者方面,Hunyuan-A13B模型對個人開發者較為友好,在嚴格條件下,開發者只需要1張中低端GPU卡即可部署。目前,Hunyuan-A13B已經融入開源主流推理框架生態,無損支援多種量化格式,在相同輸入輸出規模上,整體吞吐是前沿開源模型的2倍以上
即日起,模型已經在Github和Hugging Face等開源社群上線,同時模型API也在騰訊雲官網正式上線,支援快速接入部署。
體驗入口:https://hunyuan.tencent.com/
API地址:https://cloud.tencent.com/product/tclm
Github :https://github.com/Tencent-Hunyuan
HuggingFace:https://huggingface.co/tencent
01.
啟用引數13B,效能直追OpenAI o1
測試結果顯示,Hunyuan-A13B在數學能力、推理能力以及Agent呼叫能力上表現較佳,在多個基準測試榜單中超越Qwen3-A22B、DeepSeek-R1-0120以及OpenAI-o1-1217。
▲Hunyuan-Large基準測試資料(圖源:騰訊混元)
在長文方面,Hunyuan-A13B支援256K原生上下文視窗,在PenguinScrolls和LongBench-v2長文資料集中超越DeepSeek R1和Qwen3-A22B,僅次於第一名Gemini 2.5 pro。
02.
20T tokens預訓練+MoE架構最佳化:
騰訊混元A13B大模型核心技術突破
預訓練環節,Hunyuan-A13B訓練了20T tokens的語料,覆蓋了多個領域。此外,在模型架構上,騰訊混元團隊構建了適用於MoE架構的Scaling Law聯合公式,可以進一步提升模型預訓練的效果。
在後訓練環節,Hunyuan-A13B採用了多階段的訓練方式,同時兼顧了模型創作、理解、Agent等通用能力。
▲Hunyuan-A13B後訓練四個步驟(圖源:騰訊混元)
對於時下熱門的大模型Agent能力,騰訊混元建設了一套多Agent資料合成框架,接入了MCP、沙箱、大語言模型模擬等多種環境,透過強化學習讓Agent在多種環境裡進行自主探索與學習,進一步提升了Hunyuan-A13B的效果。
此外,騰訊混元還開源了兩個新的資料集。其中,ArtifactsBench構建了一個包含1825個任務的新基準,涵蓋了從網頁開發、資料視覺化到互動式遊戲等九大領域,並按難度分級以全面評估模型的能力。
C3-Bench則針對Agent場景模型面臨的三個關鍵挑戰:規劃複雜的工具關係、處理關鍵的隱藏資訊以及動態路徑決策,設計了1024條測試資料,以發現模型能力的不足。
03.
結語:騰訊混元構建開源AI生態
騰訊混元旗下影像、影片、3D、文字等多種模態基礎模型已全面開源。未來,混元還計劃推出多尺寸混合推理模型,從0.5B到32B的dense模型,以及啟用13B的MoE模型,以適配企業與端側不同需求,混元影像、影片、3D等多模態基礎模型及配套外掛模型也將持續開源。
值得注意的是,此次騰訊混元在開源Hunyuan-A13B模型的同時,還配套開源了ArtifactsBench和C3-Bench兩大專業評測資料集,這一舉措展現了科技大廠參與行業標準制定的積極姿態,體現了騰訊混元推動大模型技術生態共建的責任。
(本文系網易新聞•網易號特色內容激勵計劃簽約賬號【智東西】原創內容,未經賬號授權,禁止隨意轉載。)


相關文章