“Qwen3之後,我才真正敢投AI應用”

作者Yoky郵箱[email protected]
2025年4月29日凌晨,距離通義千問Qwen3正式釋出還有5小時,X和GitHub上的開發者們已經搬好小板凳蹲守釋出。開源社群的技術愛好者們熬夜重新整理,等待第一時間測試和體驗這款備受期待的中國大模型新作。
甚至中國開發者已經蹲守通宵,在釋出凌晨5點發布的第一時間測試併發布了評測報告。
這樣的現象曾經只在OpenAI釋出新模型前出現過如此關注度。如今,中國大模型也能引發全球開發者如此熱切的期待,不僅是模型技術的突破,也是因為對於開發者和企業而言,能夠真正用起來,產生產業價值。
“在為企業在國內選模型,基本上只有Qwen和DeepSeek兩個選項,但R1引數太大了,很多場景不需要那麼強的效能。對比來看,千問系列提供了從小到大全系列引數規模的選擇,在任何場景下都能找到適合的模型。”Agent數字員工應用公司語核科技創始人翟星吉告訴我們。
尤其在Qwen3釋出之後,模型尺寸從0.6B到235B再度拓寬光譜,並且進一步降低了部署和推理成本之後,企業和開發者的門檻再度被磨平,也為應用生態的爆發奠定了基礎。
“Qwen3以後,我才真正敢投大模型應用。”一位投資人對矽星人坦白:“端側算力不足是事實,如果一味用雲端模型沒法本地部署,很多功能被限制使用者也會擔心隱私的問題。”
大模型競賽的第一賽段已經過去,淘金之後企業和開發者能夠選擇有足夠效能的模型其實並不多,而Qwen似乎已經成為了中國環境的首選。
1
以服務產業為目標做模型
回顧Qwen系列模型的發展歷程,能夠發現其與其他大模型的核心區別:不是單純追求技術領先,而是以服務產業實際需求為導向。
做“精”還是做“全”,DeepSeek和Qwen代表著這兩個技術的方向。
Qwen系列模型以“全譜系”佈局策略,為不同場景提供針對性解決方案。從引數規模來看,Qwen3涵蓋從輕量級的0.6B、1.7B、4B、8B、14B、32B稠密模型,到30B-A3B和235B-A22B的混合專家模型,覆蓋了從端側到雲端的所有部署需求。在模型型別上,更大的Qwen系列不僅有基礎語言模型,還包括推理模型、多模態視覺理解(VLM)、影像生成、影片理解等全模態能力。
翟星吉指出:“它的模型系列覆蓋的很全,從文字到VL多模態識別,再到推理模型,你會發現全套它都有。它很早就探索了QVQ,就是視覺推理模型。”
這種全譜系佈局使得各類企業都能找到適合自己場景的模型。例如,兒童智慧玩具創業公司躍然創新創始人李勇告訴我們:“之前受限於晶片效能、成本和功耗,無法在端側部署推理模型。但Qwen3-0.6B的推出讓端側部署成為可能,端側部署意味著無需聯網,解決了隱私問題,同時消除了網路限制和Token計費成本。”
更廣泛的應用場景看,Qwen為各類終端裝置提供了精準匹配的解決方案:0.6B和1.7B模型支援開發者用於推測性解碼和小終端部署;4B模型適合手機端側應用最佳化;8B模型對電腦或智慧汽車座艙場景設計;14B模型適合普通開發者和中小企業使用,資源需求適中;32B模型是企業最喜歡的規模,支援大規模商業部署;MoE模型則為追求極致效能的場景提供服務。
翟星吉解釋道:“你像我們給客戶部署,如果要推理模型,我肯定會考慮大部分客戶資源情況,很多人會選擇基於千問32B的流量版本的推理模型,或者直接用QWQ32B。”
相比之下,Llama比Qwen更早開源,但卻在後續的發展中逐漸成為了開源的第二選擇。首先其在引數規模選擇上存在明顯短板。Llama的大模型如400B-500B引數規模對企業而言難以部署,需要龐大的計算資源;而70B引數的模型又被開發者普遍認為能力不足。
相比之下,千問72B被認為剛好達到了企業能負擔的最大引數規模,在效能和成本之間取得了平衡。另一位開發者解釋道:“我們測算下來,企業最多就是部署72B的模型,再大就部署不了了。”
其次,Llama在多語言特別是中文能力上明顯不足。“中文語境下,Llama語料資料比較少,它只有5%的多語種資料,95%的英語語種資料。所以大家會覺得它在中文場景下有點笨。”這導致Llama在全球化應用場景中的適應性不佳,尤其對中文開發者而言,其實用價值大打折扣。
這種策略的成功體現在Qwen在開源社群獲得的廣泛認可上:全球衍生模型數量已超過10萬,下載量超過3億,在HuggingFace社群2024年全球模型下載量中佔比超30%。在2025年2月的Huggingface全球開源大模型榜單中,排名前十的開源模型全部都基於Qwen二次開發。
1
為預訓練Agent,提供BaseModel
“現在一個Agent不開出多模態的話,肯定是沒有前途的。”上述投資人講道:“在當前階段,構建智慧Agent需要模型具備強大的多模態理解能力、推理能力和自主決策能力。”當Agent儼然已經成為了下一代應用的核心,而構建高效Agent需要強大的底層模型支援。
有了在製造業深耕Agent的諸多嘗試後,翟星吉認為現在到了一個Agent的關鍵節點,“我們現在做的Agent,比如像Manus背後肯定還是有手搭的workflow如果嘗試不再是固定流程的,它是智慧判斷的我需要找這個人幹什麼,我需要下單,我需要找這個人驗證,我需要取消,那在這場景下,就需要基於一個強大的base model做預訓練的Agent模型。”
“首先應該是一個推理模型,這是基礎的。然後在推理模型上去做再訓練,把整個任務的第一步、第二步、第三步的路徑資料,以及在每一步的思考資料,為什麼要這麼做的思考資料,以及最終的結果資料全部標出來,標出來之後用強化學習的方式讓它不停地去迭代。”
這種訓練方法本質上是教會模型如何進行任務分解、如何思考以及如何利用工具,而千問作為基礎模型提供了強大的語言理解能力和邏輯推理框架。翟星吉進一步補充:“我們到現在都是自己寫推理模板,讓大模型去按照這個推理模板一步一步走,但未來希望Agent一步到位就出來推理模板,不需要我們去提供了,它自己會思考,自己會形成一個推理的架構和路徑模板,這對基礎模型的能力要求很高。”
Qwen3的混合推理能力,為Agent開發提供了更靈活的思考與決策框架。在推理模式下,模型會執行更多中間步驟,而在非推理模式下,模型則可快速遵循指令生成答案。這種能力與人類思維極為相似:對簡單問題快速作答,面對複雜問題則深思熟慮。在開發智慧Agent時,這種混合推理能力顯得尤為重要。
千問還進一步透過Qwen-Agent與MCP(Model-as-Copilot Platform)的結合降低了開發門檻,這一創新舉措使得開發者能夠以更低成本快速構建智慧應用。傳統的Agent開發需要專業的AI工程師和大量資源投入,而Qwen-Agent框架與MCP平臺的結合,創造了一種'低程式碼'的Agent開發模式。開發者只需定義任務流和工具集,系統會自動處理複雜的推理過程和執行路徑。這種方式極大地簡化了開發流程,使得沒有深厚AI背景的普通開發者也能構建功能強大的智慧應用。
MCP平臺作為Agent的執行環境,提供了工具呼叫、許可權管理、資料處理等基礎設施,而Qwen-Agent則專注於智慧決策和推理能力。以前構建一個能處理客戶服務的Agent,可能需要1-2個月的開發週期和專業AI團隊。現在透過Qwen-Agent與MCP的結合,一個普通開發者可能只需1-2周就能完成原型開發,實現更高質量的互動體驗。
這種降低門檻的方式使得AI應用開發呈現“平民化”趨勢,讓更多中小企業和個人開發者也能參與智慧應用創新,才能帶來應用的爆發。
1
開源不是口號,是“生存方式”
如今的一切開放,其實是建立在真開源的基礎上。
“Qwen是真的很大方,最好效能的模型都拿來開源。”翟星吉感嘆道。
從最小的0.6B到最大的72B,再到新一代的235B MoE模型,所有規格都對外開源;不保留最好的模型作為閉源產品,而是將每個級別最好的模型完整開源;持續更新迭代,不斷推出新的模型和能力,從文字到多模態,從對話到推理的全方位開放。
不是保留最好的模型作為閉源產品,而是將每個級別最好的模型完整開源。事實上,基座模型廠商通常開源效能有限的小模型,將高效能大模型保留為付費API服務,從而形成完整的商業閉環,才是行業常見的開源模式。
而Qwen全部尺寸模型向社群開放,沒有任何能力衰減或功能限制,不只是預訓練模型,還包括SFT微調版本、對話版本和各種專業領域的指令最佳化模型,為開發者提供了即取即用的解決方案,同時允許開發者進行深度修改和二次開發,而不是像某些廠商那樣只提供有限訪問許可權的“半開源”模式。這種無保留的開放態度,已經不再是開源戰略,而是生存之本。
“到2024年年中多模態模型開始逐步成熟之後,千問是最開始推VL模型的,從千問2.0就開始有多模態模型,然後2.5的多模態更強了。而Llama3.2才支援影像識別,已經晚了”。翟星吉回憶到,Qwen團隊“太捲了”。
模型的開放與雲的服務形成了良好的閉環。阿里雲作為國內第一的雲廠商,需要有更多客戶在上面呼叫,提供MaaS服務。當它將開源生態做起來以後,養成了品牌心智,如果需要閉源模型,自然也會選擇千問。
另一位to B領域的創業者講道:“如果我們現在在國內去做應用,能用雲,我們一定優先用雲,沒有運維成本,沒有部署成本。但如果客戶一定要私有化,那我們就會選擇開源模型部署,尤其是在一些特殊行業,如金融、政府和醫療領域,出於資料安全和合規要求,往往需要完全私有化部署。”
在全球範圍內,目前模型和雲能夠形成良性閉環的,也就只有阿里一家。微軟選擇與OpenAI合作提供服務,AWS選擇與Anthropic合作。
從技術到產業,從研究到應用,Qwen系列透過全面開源的策略,不僅贏得了開發者的青睞,也在實際商業環境中找到了自己的位置。開源不只是分享程式碼,它是構建生態的方式,是連線開發者和企業的橋樑,更是在激烈的大模型競爭中生存和發展的根本。

點個愛心,再走


相關文章