
堅持不在豆包中接入DeepSeek的位元組,在自研深度思考功能上又有了新動作。
繼3月18日豆包APP全量上線深度思考功能後,時隔十天之後,近期豆包又對深度思考功能做了番更新,主要亮點在於將聯網搜尋能力直接融進了思考過程中,可以實現“邊想邊搜”。直白點理解,就相當於豆包把聯網搜尋鍵與深度思考鍵合二為一了。
此前,在DeepSeek R1爆火後,深度思考和聯網搜尋兩大功能,一度成為AI助手類產品的設計新標準。

根據字母榜(ID:wujicaijing)實際體驗,豆包上述二合一的新產品設計,除了在頁面佈局上直接消滅了聯網搜尋鍵外,更重要的內在改變是重構了大模型的推理過程。
DeepSeek R1在開啟聯網搜尋後,其推理過程是先搜尋網頁,再根據網頁內容展開思考,一般只進行一輪搜尋。作為對比,豆包融合聯網搜尋的深度思考模式,則是先進行一番思考,然後基於思考去搜索相應網頁,並結合網頁具體內容再展開新的思考,往往會進行2-3輪的多輪搜尋。
更形象地類比,“豆包等於把聯網搜尋做成了一個內建在深度思考功能內的Agent。”在國內從事大模型創業的李振看來,豆包深度思考內嵌入的聯網搜尋功能,做法上更像是OpenAI推出的Deep Research,或者是Grok 3推出的DeepSearch功能。
這些DeepSearch類Agent的一大特徵,就在於可以操控網路瀏覽器獲取即時資訊,從而具備自主執行簡單網路任務的能力。
但人類的日常生活中,並非事事都需要開啟深度思考的Agent模式。豆包上述產品更新帶來的一大問題就在於,透過強制將聯網搜尋嵌入深度思考過程,使得即便是面對簡單問題,也需要機械式地進行多輪搜尋,在使用者體驗上造成一些不必要的等待過程。當字母榜詢問“今天北京天氣”時,豆包在做了四輪搜尋後,才給出了答案。
不過,值得一提的是,透過減掉聯網搜尋鍵,豆包在推動AI儘可能像人一樣去搜索問題、尋找答案上,給出了自己的新嘗試,某種程度上也相當於開始跟DeepSeek搶奪產品設計的定義權。
面對AI助手類產品越加越多的功能和按鍵,國內頭部大廠產品經理劉凱(化名)將其歸結為“抽象洩露”法則在AI領域的顯現。
“抽象洩漏”,多指在軟體開發時,本應隱藏實現細節的抽象化不可避免地暴露出底層細節與侷限性,而抽象化本來目的就是向用戶隱藏不必要公開的細節。
體現在AI類產品設計中,“即使用者被迫理解不同的模型選擇,如基礎模型、推理模型的區別,以及勾選聯網搜尋和深度思考功能與否的差異等,越來越背離理想中的無縫體驗。”劉凱說道。
但上述現象正有望隨著模型迭代而改變。從Anthropic釋出的全球首個混合模型Claude 3.7 Sonnet,到OpenAI CEO山姆·奧特曼預告中的大一統模型GPT-5,未來一個模型解決所有問題正逐漸成為共識,同樣,未來一個按鍵就解決所有使用者需求或許也將是產品演進的終局。

DeepSeek R1在年初爆火之後,聯網搜尋由此成為一個新的按鍵,標配在一眾AI助手產品中。
最新(可能也是主流大模型公司中最後一家)選擇跟進的是Anthropic,其在近日宣佈聊天機器人Claude即將啟用網路搜尋功能,打破了自身一直維持的“自給自足”設計理念,開始提供更多即時檢索資訊,來回應使用者的需求呼喚。
R1之前,AI助手類產品中並沒有聯網搜尋獨立按鍵的身影。
2022年底ChatGPT剛剛釋出時,並不能進行聯網搜尋,大模型所提供的資訊截止到2021年7月份,也暫不具備從其經驗中學習的能力。
當2023年3月份百度文心一言釋出後,其對外宣傳的產品亮點之一,便是引入了檢索增強(RAG)技術,在給模型補上獲取即時資訊的短板之外,還可以起到幫助削弱模型幻覺的作用。
DeepSeek在R1推理模型上新設計的聯網搜尋按鍵,則在此前檢索增強技術的基礎上,使得模型獲取網頁的數量和豐富度,進一步提高。同樣以查詢“今天北京天氣”為例,不開啟深度思考和聯網搜尋,僅靠檢索增強支援的基礎模型,一般能夠檢索個位數的網頁連結,開啟聯網搜尋後的深度思考模式下,模型獲取的網頁連結數量則飆升到數十個。
目前,根據DeepSeek給出的回答,其模型知識庫僅更新到2024年7月,所以在沒有勾選聯網搜尋的情況下,面對“今天北京天氣”的詢問,R1會告訴使用者自己無法提供即時天氣資料,並建議使用者開啟聯網搜尋功能。

之所以進入到推理模型後,大模型廠商才開始將聯網搜尋拆分出來,單獨設計了一個新的按鍵,其首要原因便在於控制算力消耗成本。人工智慧商業化專家丁坤博士告訴字母榜,深度思考功能本身呼叫的算力就更大,如果每次推理還要再進行一番聯網搜尋,會將算力資源的消耗量推向新高。
R1爆火之後,英偉達創始人黃仁勳就對外多次強調,推理模型正在消耗更多的計算能力,“(推理模型)可以消耗100倍以上的計算資源,而未來的推理模型將消耗更多的計算資源。”
同時,考慮到當下大模型廠商C端的商業變現手段更多透過訂閱制,將深度思考和聯網搜尋分開設計,也是出於一種商業化的考量,“分開設計有利於形成產品梯度,刺激使用者購買付費版本。”丁坤解釋道。
這一點在OpenAI、Anthropic和Grok上都有著直觀體現。儘管2月份後OpenAI向ChatGPT免費使用者也開放了推理功能,但卻從思考深度和思考次數上給出了限制。ChatGPT免費使用者只能使用o3-mini模型的推理能力,如果想體驗更強大的o1-Pro或o3-mini高效能版推理模型,則需要花費每月20美元或200美元,成為OpenAI的Plus或Pro付費訂閱使用者。
此外,從使用者體驗側考量,丁坤博士認為,深度思考和聯網搜尋功能分開,則可以平衡使用者對生成答案更快和更好之間的需求。對於那些沒有時效性的問題,使用者便可以只勾選深度思考,從而更快獲取答案。

豆包一反行業常態,將聯網搜尋和深度思考合二為一的背後,也有著自己的諸多考量。
國內頭部大廠產品經理劉凱(化名)向字母榜分析道,在產品增長中,內部往往會關注一個重要指標即使用者漏斗,其分為獲取、啟用、留存、轉化變現四大階段。
在獲取新使用者上,國內外AI廠商都越來越看重“好奇流量”,“只要一個產品看起來有一些不一樣的神奇功能,或者哪怕沒有落地,還只是炫酷的演示Demo,就會吸引使用者快速嘗試。”劉凱進一步指出,激發好奇流量的手段之一,便是對產品進行微最佳化。
有時候,一個很小的產品變化,也會大大提高AI產品的活躍使用者基數,例如去年憑藉率先押注長文字出圈的Kimi,今年率先展示思維鏈的DeepSeek,它們都藉助一次產品更新,在好奇流量的加持下,獲得了夢寐以求的病毒式傳播機會。
但並不是每一次產品更新,都能成功引來“好奇流量”。年初,晚於DeepSeek R1近兩天釋出的豆包1.5 Pro大模型,儘管在預訓練和推理成本上還要低於DeepSeek V3,但卻因為模型體驗不如前者,而未能在輿論場上激起太多水花。
這次,豆包消滅聯網搜尋的產品最佳化之舉,在過去一週左右時間後,也暫未迎來行業破圈效應。

但在國內一眾AI助手產品中,豆包又有著更迫切的規模增長需求。
DeepSeek爆火之前,豆包是中國月活使用者數最多的AI助手應用。在被DeepSeek趕超後,據晚點LatePost爆料,2月份的All Hands全員會上,位元組CEO梁汝波列出了2025年的重點目標,其中之一便是要求團隊加強規模效應。
QuestMobile向《財經》提供的資料顯示,截至3月4日,DeepSeek、豆包日活躍使用者分別是4885萬、2947萬。而梁汝波今年對豆包的DAU也提出了新目標,晚點LatePost報道中,今年豆包的 DAU 目標是超過 5000 萬。這意味著,在未來三個季度內,豆包日活使用者規模,差不多要翻一倍。
支撐豆包追求更大規模使用者,以及頂著算力消耗壓力將聯網搜尋融入深度思考功能中的底氣之一,都離不開位元組在GPU上的充裕儲備。
受益於推薦演算法時期積累的晶片使用量,2023 年時,有媒體報道位元組GPU儲備已超過10 萬塊;在外媒最新報道中,2025年位元組AI算力採購預算將高達900 億元以上。

在豆包做出嘗試的功能融合方面,已經有大模型廠商選擇了跟進。
近期,百度透過“自研+開源模型”的組合,新上線了“自動模式”。該模式下,大模型能夠自動識別使用者需求,從而自主選擇合適模型來生成答案,在產品介面上,不僅不再展示聯網搜尋鍵,連深度思考鍵也一併隱藏了起來。
在功能融合之前,一場圍繞模型的融合試驗,在過去一個月內已經頻繁上演。
3月25日,DeepSeek官宣V3版本更新。新版本V3-0324雖然不是推理模型,但卻有了一絲絲的R1味道。官方技術報告中透露,V3-0324和之前的V3使用的base模型相通,但改進了後訓練方法,並借鑑了R1推理模型訓練過程中的強化學習技術。
幾乎同一時期,騰訊新上線的混元T1正式版推理模型,則在保證內容精細和準確度的前提下,透過首次將混合Mamba架構無損應用於超大型推理模型,將快慢思考結合了起來,從而達到縮短使用者等待生成結果時間的效果。
不止國內,國外大模型公司也都在往模型融合統一的道路上邁進。
此前奧特曼在談及GPT-5的計劃時就曾經說道,模型和產品功能太複雜,未來OpenAI將實現統一,o3推理模型不再單獨釋出,GPT-4.5也將是OpenAI最後一個非鏈式思維的基礎模型。
Anthropic更是搶先OpenAI一步,在2月底釋出了“全球首個混合模型”Claude 3.7 Sonnet,在單一架構上整合了即時應答(Fast Thinking)和深度思考(Slow Thinking)。使用者不需要在不同的模型間進行切換,而是靠模型自行判斷當前問題是否需要深度思考。
未來,隨著模型迴歸一統,在劉凱看來,模型載體之上的一系列功能按鍵,也有望迴歸更加簡潔的設計,最終使得AI產品體驗無限趨近於人。
之所以當前階段一眾AI助手產品加入了五花八門的功能標籤,背後則是大模型產品使用者滲透率還比較低的現實困境。“大部分使用者還是抱著好奇心態,嚐鮮過後要麼想不起來用,要麼不知道開啟後該問什麼。”劉凱表示。

基於此,眼下的AI助手類產品,為了激發使用者的體驗熱情,往往會借鑑搜尋引擎的設計理念,如向用戶推送彈窗訊息,在輸入框下方主動設定一些供人點選的新聞連結等。
除了使用者使用頻率不高之外,大模型技術尚未進入成熟穩定期,也是促使其產品功能標籤眾多的原因之一。
國內外的一眾大模型廠商,目前其實都是基於一個非確定性系統極高的模型來設計產品,這導致的一種情況是,大多數AI廠商以“模型思維來主導產品設計,而非應用思維。”李振舉例稱,ChatGPT起初也只是為了展示OpenAI的模型能力而構建的,並不完全是為了打造一款面向消費者端的大眾應用。
就連奧特曼都在近期接受採訪時坦承,當時內部只是在以一個研究實驗室的標準來執行,根本沒有想過會成為一家消費科技公司。
但隨著模型普及教育的不斷深入,越來越多大模型廠商開始重視起核心使用者體驗,“這就是產品一步步更像人的演化過程。”李振解釋道。
參考資料:
《智譜AI CEO張鵬:當下被忽略的大模型“反共識”》騰訊科技
《位元組AI再創業:獨立組織、全鏈條的飽和出擊》晚點LatePost
《位元組大模型全員會,朱文佳和吳永輝一起聊了方向、組織和開源》極客公園
《Sam Altman :GPT-5 將免費開放,DeepSeek 教訓了我們》APPSO
《2025 APP流量競爭新觀察》QuestMobile
歡迎在評論區留言~如需開白請加小編微信:dongfangmark






