


文|吳俊宇
編輯|謝麗容
2025年初,DeepSeek-R1攪亂了中國的大模型競爭格局。
過去三年行業裡有一個基本共識——AI大模型只是科技大廠的遊戲,創業公司很難出頭。一位中國科技公司大模型領頭人認為,此前的狀態是幾個大廠不緊不慢地賽跑。“現在賽道上突然橫插進一匹黑馬,格局完全亂了。DeepSeek在倒逼大廠重拾緊迫感。”(文章詳見《DeepSeek三個月,改變全球四大雲廠走了三年的路》)
DeepSeek不僅打破了大廠壟斷大模型的共識,還引發了其他連鎖反應:
其一,大模型的競爭焦點從訓練走向推理,低成本、高效能的模型變得更重要。
其二,AI應用正在爆發,固化多年的網際網路應用格局可能會出現新的生機。
對大廠來說,現在比兩年前大模型爆發初期的機會更多了,但競爭難度在變大。前兩年,它們只需準備萬卡算力、訓出千億引數的模型,然後看別人“卷”應用。現在,它們得買十萬卡的算力,訓又好又便宜的模型,還要自己下場在To B(面向企業級)、To C(面向消費者)兩個方向同時探索AI應用。
DeepSeek大火之後,阿里、字節跳動不僅迅速推出了對標DeepSeek的新模型,AI(人工智慧)戰略也在悄然調整,全面擁抱AI大模型應用落地。
百度2023年初在中國大模型市場一度是領跑者,它在中國率先發布了面向普通消費者的大語言模型。2025年DeepSeek爆發後,百度的應對看起來沒有那麼快速直接。
但是,市場始終關心這些問題:
長跑兩年,百度在大模型賽道處於何種位置?百度的大模型策略是否有所調整?百度的整體AI戰略又將如何應時而動?
4月25日的百度開發者大會,百度後手出牌,回答了這些問題——百度目前在模型、應用、算力三個方向仍在有條不紊地推進。
百度不僅釋出了文心大模型4.5 Turbo和文心大模型X1 Turbo兩款新模型,還發布了高說服力數字人(也就是更逼近真人的數字人)、多智慧體協作應用“心響”等一系列新款AI應用。截止午間,百度集團(9888.HK)股價漲幅超5%。

(李彥宏釋出文心大模型4.5 Turbo和文心大模型X1 Turbo)
百度創始人兼CEO(執行長)李彥宏在這次大會的演講中提到了幾個重要判斷:
其一,當前開發者做AI應用的一大阻礙,就是大模型成本高、用不起。成本降低後,開發者和創業者們才可以放心大膽地做開發,企業才能夠低成本地部署大模型,最終推動各行各業應用的爆發。
其二,沒有應用,晶片、模型都沒有價值。模型會有很多,但未來真正統治這個世界的是應用,應用才是王者。
其三,AI應用井噴的時代就在眼前,它可能是智慧體、小程式、App(移動應用)等各種AI應用形態。

繼續卷模型,但策略變了
卷模型,對百度來說,這件事情依舊是確定的。因為基礎模型能力的競爭始終沒有結束。
雖然“Scaling Law”(規模定律,模型效能由算力、模型、資料規模決定)近一年在放緩,但沒有任何一家大公司因此放棄訓練基礎模型。因為,模型能力始終是決定客戶規模的核心因素。
一位科技公司演算法負責人今年1月曾對我們表示,大模型是長跑,模型每3個-6個月就會有一輪重大升級。長期迭代並保持效能領先很重要。一旦模型能力落後,就會被競爭對手搶走客戶。
2025年,大模型的另一個方向是,降低算力成本。一位中國頭部雲廠商大模型業務負責人今年3月對我們表示,2025年中國大模型的發展主脈絡之一仍然是提升模型精度並降低算力成本。中國客戶最希望用到的模型,簡單粗暴地說就是“多、快、好、省”。
因此,百度此次釋出了文心大模型4.5 Turbo和文心大模型X1 Turbo。這是3月16日釋出的文心大模型4.5、文心大模型X1的升級版。它們主打三大特性:多模態、強推理、低成本。

這兩款模型的核心特點是定價比市面上其他同等規格的主流模型更低。其中,文心大模型4.5 Turbo的輸出價格僅為DeepSeek-V3的40%,僅為OpenAI o4-mini的10%。文心大模型X1 Turbo的輸出價格僅為DeepSeek-R1的25%,僅為OpenAI o3的1.4%。
為什麼要不斷把大模型的成本降下來?李彥宏解釋,開發者做AI應用的一個很大阻礙就是成本高,用不起。而創新的本質往往就是成本下降。
這四個月,百度看似動作不多。百度也不是目前跑得最快、聲量最大的企業,但水面下的實際情況是——百度是大模型的受益者,而且仍然是大模型牌桌上的少數玩家之一。
IDC資料顯示,2024年12月中國大模型日均呼叫量9522億次,2024年6月這個資料只有963億次。也就是說,2024年6月-12月中國大模型日均呼叫量增長了近10倍。
百度的文心大模型2024年的日均呼叫量也在快速增長,它的增速跑贏了市場大盤。2024年12月,百度文心大模型日均API(應用程式介面)呼叫次數是16.5億次,相比2023年12月的0.5億次增長了33倍。不過,百度沒有披露日均Token呼叫量。

一位大模型技術人士分析,日均Token呼叫量這個資料很重要。它可以直接估算模型廠商的收入情況。近一年大模型呼叫的上下文長度一直在增長。理論上看,百度的日均Token呼叫量會超過33倍。
百度的雲業務過去一年受益於大模型的發展,業績也在快速增長。百度智慧雲2024年營收218億元,同比增長17%。尤其是在2024年四季度,營收71億元,同比增長26%。這個高增速,目前在國內雲廠商之中是少見的。

百度過去選擇閉源的邏輯是,開源模型約等於免費,它沒有商業模式。但閉源模型商業模式簡單清晰,理論上選擇閉源才健康可持續。從商業邏輯來看,這個判斷是正確的。
現實情況是,2024年中國市場開啟了大模型價格戰,閉源模型短期內很難盈利。免費的開源模型反而容易獲取市場聲量。它雖然無法獲得直接收入,卻意外形成了“羊毛出在豬身上”的商業路徑。
某科技公司的一位戰略規劃人士透露,2024年中國各個模型廠商的模型呼叫收入普遍只有千萬元、數億元。這部分收入寥寥無幾。但模型呼叫帶來的算力消耗、公共雲四大件(計算、儲存、網路、資料庫)收入增長,反而更可觀。因此,阿里雲等廠商寧願用免費開源的方式,刺激市場需求。
尤其是在DeepSeek-V3/R1這兩款開源模型走紅後更是如此——任何人都能下載、部署、使用,因此幾乎所有云廠商都接入了它們,並且在短期內獲得了算力消耗和收入增長。DeepSeek-V3/R1這類開源模型藉此獲得了更大的市場聲量。這種情況下,市場對閉源模型的誤解容易加深。
今年2月,李彥宏在2024年財報釋出後的投資者電話會中提到,大家從 DeepSeek學到的一點是,開源最好的模型可以極大促進應用。模型開源後,人們出於好奇自然會想要嘗試,這有助於應用廣泛落地。
一位百度人士對我們表示,百度的態度其實是開放的,願意根據市場實際情況動態調整。模型開源,目的是讓更多開發者瞭解文心大模型的價值,進而擴大它的影響力。

三個AI應用發力點
隨著推理算力成本不斷下降,2025年AI應用爆發的趨勢已經非常明顯。
在這個大背景下,幾乎每一個科技大廠都把AI應用的戰略權重提高了。百度也是如此——不僅自己在押注一些重點的AI應用賽道,還在幫助開發者降低AI應用的開發門檻。
中國的應用生態已經呈現出了類似2012年移動網際網路早期的活力。中國移動網際網路市場調研機構QuestMobile資料顯示,截至2025年2月底,AI原生App使用者規模達到2.4億,比1月增長88.9%。原生AI應用使用者黏性也出現了快速增長,2月月人均使用時長和使用次數分別達到113.7分鐘、52.4次。
釘釘、飛書、WPS、美圖秀秀、百度文庫、百度網盤這些老應用近半年在加快疊加新的AI能力,Manus這類原生AI應用也在迅速爆發。以百度文庫為例,AI付費功能使用者已超過4000萬人,AI月活使用者達到9700萬。
與此同時,一批月活躍使用者過億、過千萬的AI原生應用正在誕生。它們分佈在AI聊天、影片生成、寫作、搜尋等各個領域。
為應對AI原生應用爆發的態勢,百度正在三個方向發力。
其一,擁抱MCP(Model Context Protocol,模型上下文協議)開放標準,並基於這個標準最佳化自己的開發工具。
MCP是一套全世界通行的智慧體開發標準。它最早在2024年11月被亞馬遜投資的明星AI創業公司Anthropic提出並開源。目的是形成一套開放、標準的規範。它讓大模型能接入各種外部資料和工具(如業務軟體、資料庫、程式碼庫等),大模型能夠可以“即插即用”呼叫這些模組的資料。
簡單理解,它就像是手機、電腦的USB-C傳輸介面。這套標準後來很快被微軟、谷歌、AI創業公司OpenAI,以及國內的百度、阿里、騰訊、字節跳動等公司接受了。它逐漸成為事實上的標準。
因此,百度智慧雲千帆AppBuilder目前相容了MCP協議,開發者可以快速呼叫MCP生態中的工具。它不僅可以簡化應用開發的流程,還意味著應用還能被其他工具相容。
一種觀點是,現在基於MCP開發應用,就像2010年開發移動App。尤其是目前大量企業內部沉澱資料尚未被充分利用。基於MCP開發的應用,可以直接訪問和分析這些資料,充分挖掘商業價值。
其二,佈局重點AI應用賽道。比如高說服力的數字人、多智慧體協作應用“心響”、無程式碼程式設計工具秒噠等、內容作業系統“滄舟OS”等一系列應用。
尤其是多智慧體協作,它被認為是下一個高價值的AI應用方向。李彥宏認為,未來的AI應用將從回答問題走向任務交付,而任何一個複雜任務的交付,都需要多智慧體的協作來解析需求、分拆任務、排程資源、規劃執行,最終交付結果。
事實上,這個判斷已經是事實。一位中國網際網路創業公司高管今年3月曾對我們表示,在這一輪Manus出圈之前,矽谷的智慧體就已經很熱了。一批創業公司正在卷智慧體,甚至是把多個智慧體結合在一起完成複雜任務。它的好處是,多智慧體應用可以自動規劃並完成工作。
其三,幫助開發者進行AI應用分發,併為開發者提供應用分發和收益分成的機制。
面對AI應用井噴的狀態,百度搜索開放平臺釋出了“AI開放計劃”,透過各類內容和服務分發機制,為智慧體、小程式、獨立App等AI應用開發者提供流量和收益。
對百度來說,無論是自己下場做AI應用,還是幫助開發者做好AI應用,都是不錯的選擇。
前者如果跑通,意味著可以跑出一批AI時代工具類產品。甚至是做出AI時代的超級App,搶到AI時代的“船票”,但這個機率比較小。後者則意味著,更多的開發者會使用百度的雲服務、工具產品,百度智慧雲會因此做大——它的確定性相對更大。

靠工程手段打破算力瓶頸
AI應用爆發,意味著算力消耗將更多、更快——而且是100倍以上的增長。
英偉達創始人黃仁勳3月在GTC(Nvidia GPU科技大會)2025預測稱,隨著未來推理算力效率不斷提升,10倍增長的Token數量和10倍的增長計算速度,將讓2025年的算力消耗增加100倍。我們瞭解到,阿里、字節跳動近1年日均Token呼叫量增長已經超過100倍。
然而,中國始終面臨著算力斷供的風險。由於出口管制,今年4月之後中國已經無法透過正常渠道獲取英偉達的H20等晶片——算力瓶頸始終是中國算力產業的“達摩克利斯之劍”。事實上,DeepSeek給行業帶來的重大啟發就是,如何在算力受限的情況下,訓練出效能不俗的模型,並且降低它的推理成本。
2025年以來,百度智慧雲連續成功點亮自研崑崙芯三代P800晶片的萬卡叢集、三萬卡叢集。目前百度擁有萬卡叢集管理和部署能力,可以進一步降低模型訓練、推理成本。理論上,自研晶片採購量足夠大,成本足夠低時,可以攤薄研發成本,進而得到更有價效比的算力。
百度還在提高現有叢集的使用效率——其中既包括訓練效率,也包括推理效率。
模型訓練通常由千卡、萬卡叢集完成。單卡故障會影響叢集運作。叢集越大、晶片越多,故障率就越高。2024年9月,百度的一位資深系統架構師對我們分析,有效AI算力=單卡算力有效率×平行計算有效率×有效訓練時間。在一些極端情況下,模型訓練過程中會浪費一半的算力資源,因此如何避免浪費是一個重要課題。
根據百度方面的說法,百度的百舸計算平臺等排程工具可以解決這個問題。目前,百度在萬卡叢集上實現了99.5%以上的有效訓練時長,兩種晶片混合訓練大模型的效率折損控制在5%以內。
百度集團執行副總裁、百度智慧雲事業群總裁沈抖在百度開發者大會解釋,為降低模型推理成本。百舸採用了透過PD分離(模型輸入和輸出分離)架構、大規模MoE/EP(專家模型和專家並行)架構等方式,進一步提升推理效能、降低推理成本。
我們瞭解到,PD分離架構的好處是,可以在多輪對話中降低重複計算,最終節省算力。MoE/EP架構的好處是,每次呼叫模型時只啟用一小部分專家模型和引數,並且把每個專家模型部署在不同AI晶片上平行計算,進而減少單卡壓力,提高資源利用率。
除了最佳化叢集效率,百度還在透過“超節點”這種硬體工程手段突破算力叢集的峰值效能。
過去,傳統的AI伺服器通常只會搭載八枚AI晶片。它帶來的問題是,伺服器間的互聯效能損耗很大。但“超節點”的做法是,把數十枚,甚至是數百枚AI晶片整合在一個機櫃中。再透過在晶片間構建高頻寬、低時延的互連網路,降低多枚晶片平行計算的通訊損耗,最終提升整體算力效率。
2025年以來,百度崑崙芯實現了64枚P800晶片的超節點方案。按照百度方面的說法,64枚P800晶片的超節點方案,可以把卡間互聯頻寬提升到原來的8倍,單卡的訓練效能提升10倍,推理效能提升13倍。
事實上,“超節點”這種技術方案目前只有少數幾家公司在探索。比如,華為系列近期實現了384枚昇騰910系列晶片的超節點方案。英偉達去年釋出的GB200 NVL72,就是把36 枚Grace CPU和72枚Blackwell GPU整合在一起。
這種技術方案並非完美,它有一定的取捨。我們從部分晶片技術人士瞭解到,新的工程架構會讓每個FLOP(每秒所執行的浮點運算次數)的功耗大幅增加。但對中國的電力資源充沛、算力資源受限,因此用電力換算力的做法可以在有限空間內,榨取更多算力。
一位演算法工程師的觀點是,在晶片採購受限的情況下,中國科技公司打破算力瓶頸的少數方法之一,就是靠軟硬體工程手段榨乾每一枚晶片的效能。
新一輪AI卡位戰中,人們對百度的質疑多集中於百度是不是懈怠跑不動了。從目前的事實進展來看,百度的每一個動作裡,仍然藏著野心與激情。


責編 | 要琢


