百度文心全面開放,AI下半場的“開源”新局

作者

Yoky

郵箱

[email protected]

開源,免費,或許將成為大模型行業,2025年的關鍵詞。
2月13日,百度重磅官宣:文心一言將於4月1日全面免費,覆蓋PC與移動端,支援超長文件處理、多語種對話、高階AI繪畫等前沿功能。同一日,OpenAI宣佈ChatGPT免費無限使用GPT-5;谷歌也在更早一些時候,開放Gemini 2.0全系列模型。
大模型領域的三大巨頭幾乎同時宣佈免費,標誌著AI正從“稀缺資源”向“水電煤”式基礎設施的徹底轉變。
緊接著百度連續釋放全面開放訊號。2月12日,CNBC曝出百度計劃下半年釋出多模態能力躍升的Ernie 4.5系列,2月14日百度確認此訊息,並稱下一代模型將全面開源;僅隔一日,OpenAI便緊急宣佈GPT-5即將上線。時間線上的微妙巧合,似乎也暗示了中國大模型發展的強勁勢頭。
這一轉變背後,是行業邏輯正在被重構。過去,千億引數的大模型因算力與研發成本高企,長期被視為“稀缺資源”;如今,免費開放策略正在推動AI技術從實驗室走向街頭巷尾。企業競爭的核心,也從單純的技術比拼轉向生態構建與使用者黏性爭奪。誰能以更低成本、更高效率支撐全民化AI服務,誰就能在下一輪競爭中搶佔高地。
令人矚目的是,在這場全球AI競速中,中國力量正從“追趕者”邁向“並跑者”,甚至區域性引領技術潮流。
這場無聲的較量,或許預示著技術話語權的歷史性遷移。
1
全面開放的技術底氣
全面開放的背後,是百度多年積累的技術底氣。
近日,百度創始人李彥宏在阿聯酋迪拜出席“世界政府峰會”上表示,“在過去,當我們談論摩爾定律時,每18個月,效能水平或價格都會減半。但是今天,當我們談論大型語言模型時,增加的成本基本上降低了,可以在12個月內降低90%以上。”
在國際大模型局勢多變的情況下,李彥宏認為技術創新的背後是成本降低,也是實現AI普惠的關鍵。
選擇下一代模型開源,也正是基於百度的技術實力的長期積累及AI普惠的思考,積極戰略擁抱開源路線,DeepSeek R1在高度開源後引發的蝴蝶效應,在某種程度上證明了開源是實現大規模落地的有效手段。
縱觀當下的大模型廠商,百度是中國唯一擁有AI技術全棧架構的公司。從底層晶片、框架到模型和應用層四層全棧佈局。在晶片層擁有基於自研AI晶片崑崙芯打造了萬卡叢集,框架層擁有中國開發者使用最廣的飛漿開源框架,模型層儲備了不斷迭代的文心大模型,在應用層更結合百度文庫、百度搜索、自由畫布等創新產品。
全棧能力使得百度的技術底座更紮實和靈活,擁有絕對的自主權實現端到端的模型最佳化,以及進一步降低綜合成本。
據矽星人瞭解,為了突破算力限制,百度將自研AI晶片崑崙芯大規模應用在模型訓練階段,與同類晶片相比,崑崙芯在效能上表現出更高的效果且價效比更高,能夠在更少的計算資源下執行大引數大規模的模型,降低單位算力成本,使得大模型訓練所需計算量減少,從而直接降低成本。
基於崑崙芯,百度構建了國內首個自研萬卡叢集,並計劃擴充套件至 3萬卡。
遵循著算力規模越大,單任務成本越低的定律,大規模叢集可以透過任務並行排程、彈性算力管理等方式,提高計算資源利用率,避免算力閒置,提高單任務的計算效率,從而降低整體算力成本。
作為國內首個自研超大規模算力池,它主要透過動態資源分配與通訊最佳化等方式,來提高卡的使用效率。如萬卡叢集支援多工併發能力實現動態資源切分,使得單叢集能同時訓練多個輕量化模型。萬卡叢集能夠支援多工併發能力,特別是在故障處理方面,創新的BCCL(百度集合通訊庫)技術實現了分鐘級故障恢復,確保了萬卡多芯混合訓練效能達到95%的卓越表現。
百度透過通訊最佳化與容錯機制減少算力浪費,確保了大規模叢集中的高效資料傳輸,建設超大規模HPN高效能網路,最佳化拓撲結構,從而降低通訊瓶頸,頻寬有效性達到90%以上。
如果說晶片和叢集是代表“肌肉”的硬實力,百舸平臺則是排程算力資源的“大腦”。
百舸平臺透過自適應並行切分策略,單叢集可同時訓練多個輕量化模型,完善模型的分散式訓練最佳化,採用高效並行化任務切分策略,訓練主流開源模型的叢集MFU(Model FLOPs Utilization)提升至58%,這意味著,每100分算力中有58分被有效利用在了實際的模型訓練計算上。
同時,它作為異構的算力排程平臺,在多芯混訓方面,能將不同地點、不同規模的異構算力進行統一管理,構建起多芯資源池。當業務提交工作負載時,百舸可自動進行晶片選型,依據叢集剩餘的晶片資源,選擇價效比最高的晶片來執行任務,從而最大化地利用叢集的剩餘資源,實現高達95%的萬卡多芯混合訓練效能。
一位業內人士分析道:“百度在模型推理部署方面有比較大的優勢,尤其是在飛槳深度學習框架的支援下,其中並行推理、量化推理等都是飛槳在大模型推理上的自研技術。”
事實也證明了上述人士的推斷,近期,DeepSeekR1爆火後,各雲廠商紛紛將該模型部署在自己的雲平臺中,千帆平臺透過技術創新實現了全網最低的模型呼叫成本,以DeepSeek-R1/V3模型為例,其價格僅為市場刊例價的3-5折。
技術創新推動著成本降低,成本降低又成為了技術創新的養料,如此形成了良性迴圈。
1
成本創新,是大模型的第一性原理
事實上,不止在大模型訓練上,在百度的發展歷程中,低成本創新和開放始終是貫穿始終的戰略主線。從此次選擇下一代模型開源的方式擁抱市場便可體現,開放於百度而言並不是一句口號,而是戰略。
李彥宏曾表示:“大部分創新都與成本控制有關,你必須研發出一種成本低得多的技術,才能實現無人駕駛落地。”這種戰略在蘿蔔快跑中得到了充分驗證。
當特斯拉從L2漸進式升級時,百度堅持“一步到位”的L4路線。看似冒險的選擇,實則暗含成本邏輯:L4標準下,一致的設定標準、一致的質量標準更有利於量產,同時用更高的軟體能力來降低對於硬體的高要求,從而降低整車成本,有商業化盈利的可能。
透過將大模型技術與自動駕駛深度融合,蘿蔔快跑在中國複雜的城市道路環境中展現出顯著優勢。其第六代無人車的成本僅為Waymo的1/7,甚至低於特斯拉計劃在2026年量產的Cybercab(預計成本3萬美元)。
事實也證明了這條路徑的正確性,目前蘿蔔快跑在中國40個城市累計運營1.3億公里,出險率僅為人類司機的1/14,值得注意的是,蘿蔔快跑位元斯拉Cybercab,用更低的成本更早實現商業化運營,印證了低成本戰略在市場競爭中的決定性作用。
在西方科技巨頭依賴“暴力計算”(如GPT-5需百萬張GPU訓練)時,中國AI企業探索出了一條差異化路徑——以成本控制驅動技術創新,以場景落地倒逼工程突破
百度的成本控制思路再一次證明了這條路徑的可行性。文心大模型的全面開源,本質是一場“以技術降本換生態增量”的正向迴圈。透過崑崙芯、萬卡叢集與百舸平臺的技術聯動,支撐開放戰略,而使用者規模的增長,又進一步反哺模型最佳化。
技術創新推動成本下降,低成本又促進規模化應用,規模效應進一步帶動成本最佳化。
將尖端技術轉化為切實可行的商業方案,並透過規模效應持續最佳化成本結構。在全球AI競爭格局中,中國模型正在改寫世界格局,透過持續的技術創新壓低成本曲線,讓AI技術真正走向普惠。

點個愛心,再走


相關文章