

作者 | 徐豫
編輯 | 漠影
DeepSeek後時代,“開源”和“免費”,力壓“引數量”和“模型架構”之爭,成為大模型圈新的風暴中心。
智東西2月15日報道,不到一個月內,百度、DeepSeek、OpenAI、谷歌、xAI等主流大模型廠商們密集官宣,旗下閉源高階AI模型將轉向開源,而主流AI產品計劃免費向用戶開放。這不僅是大模型競賽進入新一輪白熱化階段的訊號,也是AI技術走近尋常百姓家的關鍵節點。
百度和OpenAI兩家更是戰況焦灼,前後腳劇透下一代新模型、深度搜索功能、生成式AI工具免費可用,以及開源計劃。
2月14日,百度宣佈將在接下來的幾個月內,陸續推出文心大模型4.5系列,並且新一代文心大模型將自6月30日起開源。這也是百度旗下大模型首次開源。與此同時,有市場訊息稱,百度今年還會發布文心大模型的5.0系列。
再往前一天,百度官宣,自4月1日起,文心一言將全面免費,使用者可以透過PC端和APP端,免費使用最新款的文心繫列模型。同日,OpenAI CEO奧爾特曼在X上釋出長文,官宣計劃在幾周,或者幾個月內,釋出新一代模型GPT-4.5(內部代號“Orion”)和GPT-5系統。
奧爾特曼還在文中寫道,其ChatGPT的免費套餐,也將包括對GPT-5的無限制聊天訪問許可權。換句話說,使用者不僅可以免費使用ChatGPT的搜尋功能,後續還可以免費用上OpenAI最先進的模型。
本月早些時候,谷歌也宣佈了將開放其最新的Gemini 2.0系列模型。馬斯克則2月14日接受採訪時談道,計劃將在一到兩週內推出新一代AI模型Grok 3,效能或將超越GPT系列,並且很大機率延續開源策略。可以說,上述幾家大模型廠商都卯足了勁,準備在這個節骨眼大幹一場,誰也沒有打算讓著誰。
另外,百度和OpenAI均計劃逐步開放深度檢索相關功能。
OpenAI方面稱,深度研究功能起初會提供每月2次的免費使用機會、每月10次的Plus使用者使用機會,而所有Pro使用者均可在移動端和桌面端APP上使用該功能。百度文心一言的深度搜索功能現已上線PC端,從4月1日起即可免費使用,APP端也即將上線。
時至今日,大模型能夠走向免費、開源、開放,背後離不開技術突破所帶來的訓練和推理成本下降。
2月11日,百度創始人李彥宏在阿聯酋迪拜出席“世界政府峰會”上時分享道,“在過去,當我們談論摩爾定律時,每18個月,效能水平或價格都會減半。但今天,當我們談論大型語言模型時,可以說每12個月推理成本就降低90%以上。”
OpenAI CEO奧爾特曼近日也在部落格上表達了類似觀點。據他觀察,AI價格的下降顯著刺激了AI使用量的增長。奧爾特曼稱,AI使用成本正大幅下降,每年比前一年便宜約9成,這也有助於AI普及更多使用者。
用大模型這件事兒越來越便宜,不僅讓各中小型企業本地化部署大模型的價格門檻更低,還能開發出更適用的大模型衍生品;也有助於普羅大眾把用AI產品變得日常化,動手搭建個性化的AI工具、AI產品、AI智慧體,最終共同為整個AI生態持續注入活力。
那麼,大模型憑什麼敢免費開放,究竟如何提供高性價比的AI算力,先進模型能力到底強在哪?透過拆解百度多項大模型開發經驗,我們找到了自研晶片、資料中心和AI計算平臺,以及推理技術架構深度最佳化這4大答案。
01.
文心繫列打頭陣,
深度搜索功能即將全量上線
時隔大半年,百度文心大模型即將連續刷級。據百度方面最新訊息,文心大模型4.5系列將在未來幾個月內陸續推出。另據近期市場訊息,文心大模型5.0系列也將在年內釋出,時間可能是今年下半年。
2023年10月,百度釋出了文心大模型4.0;去年4月,文心大模型4.0工具版上線;去年6月,4.0系列中效能較強的文心大模型4.0 Turbo正式推向市場。結合4.0系列的釋出節奏來看,或許百度已用實際行動印證了李彥宏所說的“創新的本質”。在他看來,創新的本質基本遵循“如果你能將成本降低一定數量、一定百分比,那麼這意味著你的生產率提高了相同的百分比”。
有知情人士劇透,文心大模型4.5和5.0,將在多模態能力上有明顯提升。OpenAI則選擇將o3推理模型等多種AI技術和能力,整合到即將釋出的GPT-5 AI系統中。
同時,文心大模型的視覺智慧能力也是其一大特色。基於此,百度或將代替OpenAI和谷歌,接管國行版iPhone中Apple Intelligence的視覺智慧。據外媒2月14日報道,百度將負責承擔“國行版”Apple Intelligence所提供的影像識別、檢索等功能。
目前,百度自研的iRAG(image-based Retrieval-Augmented Generation,基於影像的檢索增強生成技術)結合了檢索增強(RAG)技術和視覺智慧,可以檢索、比對、參考百度搜索引擎的大量圖片資源,然後透過文字生成質量更高、元素更逼真的AI影像,減少傳統文生圖技術易出現的“幻覺”現象。
實測表明,具備iRAG能力的文心大模型4.0,所生成的人物形象及其動作都更加貼合文字描述和物理邏輯。此外,文心大模型4.0支援一次生成多張AI影像。

▲左圖由文心大模型4.0生成,右圖由文心大模型3.5生成(圖源:百度)
而單從檢索增強方面來看,百度的生成式AI工具文心一言,比OpenAI的AI聊天助手ChatGPT,在聯網檢索準確性、內容描述的細緻程度上,都更勝一籌。
先拋給它們一個有唯一解的問題:“2025年中國的法定假日有哪些?”

文心一言發現了今年是中秋節與國慶節連休,但ChatGPT弄錯了中秋節的日期,並且沒有發現連休假期的特殊情況。

再拋給它們一個開放式的問題:“哪吒2中,在做藕粉的過程中,出現了哪些讓哪吒感覺不適的操作?”

ChatGPT聯網檢索後生成的答案有偏離影片事實的部分,文心一言則更加準確地描述出了影片細節內容。

今年內,文心一言還有望勝任一些更專業化、行業門檻更高的內容。2月13日,百度官宣文心一言網頁版上線了深度搜索功能,App端也即將同步升級。
基於該深度搜索功能,文心一言可以應對民生、創業、經濟分析類等專業諮詢類的問題,內容回覆預期達到專家級水平,在一定程度上突破了過去查詢渠道較為小眾、專業領域解析難度大等AI搜尋瓶頸。
除了增強搜尋能力,百度方面透露文心一言的思考、規劃和反思能力都進一步提升,從而能夠更“聰明”地使用多種工具解決複雜任務。
例如,遇到一些不能簡單處理的問題,文心一言可以先“閱讀”、“理解”使用者上傳的文件,再搜尋、分析相關內容,最後綜合考慮私域資源和公域資源資訊,得出結果。
02.
“芯”動力撐腰,
大幅提升模型訓練效率
當前,大模型及其產品效能增強的同時,還要控制、降低開發和使用成本,以實現向用戶開源並免費開放。這背後離不開整體算力架構的提效最佳化。
首先是算力“油門”,即晶片。
百度自研的AI晶片“崑崙芯”,專注於大模型訓練和推理最佳化,驅動一系列文心大模型縮短訓練週期,並降低開發成本。
其現已升級至第三代崑崙芯P800。該晶片採用的是XPU架構(eXtensible Processing Unit,可擴充套件處理單元),這種處理器架構比傳統的CPU(中央處理單元)和GPU(圖形處理單元)靈活度更高,可以根據具體需求和應用場景來擴充套件和定製,從而減少算力的浪費,並提高計算任務的處理效率。
同時,崑崙芯P800的視訊記憶體規格比同類主流GPU高出20%到50%,可以更好地適配MoE(Mixture of Experts,混合專家模型)架構,節省算力消耗,來整體降低開發成本。
該晶片還支援8-bit量化技術,佔用更少的視訊記憶體,也能保持較高的推理精度。這意味著千帆DeepSeek一體機單機8卡,也能帶動滿血版DeepSeek等引數量為671B的大模型。
其次是算力“油箱”,即資料中心。
本月,百度智慧雲宣佈完成崑崙芯三代萬卡叢集的搭建,並計劃進一步將萬卡規模拓展至三萬卡。
這一自研萬卡叢集可形成規模效應,透過多工並行處理、彈性算力管理等方式減少算力閒置的情況,以提高計算資源利用率,進而降低模型訓練的整體算力成本。
未來,其規模如果按計劃從萬卡擴大至三萬卡,規模效應加劇,百度的雲計算服務整體成本或將進一步降低。
再者是算力“車底座”,即AI計算平臺。
百舸平臺是百度智慧雲推出的一個高效能AI計算平臺,主要用於支援大規模深度學習。其透過提升頻寬有效性、減少散熱能耗、最佳化模型訓練效率等方式,來降低模型訓練整體成本。
據百度方面最新資料,百舸4.0的頻寬有效性已提升至90%以上;訓練主流開源模型的叢集MFU(通常用MFU來表示GPU的有效利用率)提升至58%;模型訓練故障恢復時間從小時級降低到分鐘級,叢集有效訓練率達到98%。
03.
多平臺創新,
拉動模型推理成本打骨折
訓練和推理都是模型開發及其應用的關鍵環節,因此單單降低模型訓練的開銷還不夠,模型推理的成本,也需要透過最佳化推理技術來進一步控制。
截至發稿,開源社群Hugging Face上點贊數排行第一,是國產模型DeepSeek-R1。DeepSeek-R1是基於DeepSeek V3基礎模型訓練的高效能推理模型,專注於提升推理能力。
隨著主流大模型廠商相繼接入、蒸餾DeepSeek-R1和DeepSeek V3模型,並且計劃開源自家先進模型,這一格局或將被改寫。
不過,呼叫DeepSeek-R1和DeepSeek V3的價格卻有高有低。
目前來看,包括DeepSeek自家平臺在內,呼叫DeepSeek-R1和DeepSeek V3每百萬Tokens的單價,定價最便宜的是百度智慧雲千帆大模型平臺。其R1的呼叫價格為DeepSeek官方刊例價的半價,V3的呼叫價格是DeepSeek官方刊例價的3折。

總的來說,百度方面主要透過最佳化以下3大板塊的推理技術,來降低推理成本。
1、百度智慧雲千帆大模型平臺針對DeepSeek模型MLA結構(Multi-Level Attention,多級注意力)深度最佳化,一方面同步呼叫計算、通訊和記憶體資源進行推理,另一方面使用Prefill/Decode分離式推理架構在推理前先預處理資料,從而使模型滿足低延遲標準的同時,大幅提升了吞吐量,並降低了推理成本。
2、百度智慧雲千帆大模型平臺還透過增強系統容錯能力、減少多輪對話等場景中的重複計算、增強安全防護欄來整體降低推理成本。
3、有業內人士分析稱,百度飛槳深度學習框架,以及百度飛槳自研的並行推理、量化推理等大模型推理相關技術,可以遷移應用於文心一言等百度旗下的AI工具,從而降低這些AI工具的推理成本。
04.
結語:國內外大模型再掘AI增量,
智慧化加速平民化
作為首批免費開放AI模型的大模型廠商,百度與OpenAI等競爭對手一起,拉開大模型新一輪價格戰的序幕。但這一次,“省成本”不僅僅是為了大模型廠商自身的經營,更多是把重心放在了AI技術推廣上。
而百度在晶片、模型訓練、模型應用方面持續探索,透過技術創新,讓AI逐步走向人人可用、人人用得起、人人用得好的階段。
未來,無論企業或者個人是否從事AI行業,都有機會在日常生活中收穫AI技術、AI工具、AI模型的智慧化體驗,繼而作為一份子加入AI浪潮,形成AI硬體開發商、大模型廠商、雲服務商、個人等主體共促AI生態開放發展的局面。

(本文系網易新聞•網易號特色內容激勵計劃簽約賬號【智東西】原創內容,未經賬號授權,禁止隨意轉載。)
