

“兩瓶茅臺的價格體驗未來,太划算了。”

嘉賓丨戴雨森
整理丨劉倩 程曼祺
本期播客,是《晚點聊》與真格基金管理合夥人戴雨森長聊 AI Agent 和 AI 趨勢。
3 月 6 日,真格投資的 Monica 釋出的 Agent 產品 Manus,雖然還在內測階段,就引起了大量關注。在期中,雨森提到了 Monica 即將會發布一款 Agent 產品,那時候我們還不知道 Manus 將會席捲社交媒體。當我們把一個任務交給 Manus,過了十幾分鍾收到完成的結果時,似乎真的感受到了一點 Attention is not all you need 的未來。
帶來 Agent 等 AI 行業新變化的起點,是去年至今的兩個重要節點:o1 和 R1。
與 o1 同為推理模型的 DeepSeek R1 強勢開源,以極低的成本,和後續引發的巨大全民影響力,讓很多人重估了大模型行業當前的最重要課題:提升模型能力。R1 的開源和同期釋出了詳細技術報告另一個推理模型的 Kimi-k1.5 ,也明確告訴整個領域,一些方向是 “此路不通”,他們都沒有使用蒙特卡洛樹搜尋等方法。
戴雨森詳細分享了他對 Agent 機會的當前觀察,以及在 DeepSeek 帶來的開源生態的變化中,大小 AI 公司的新動作和調整。
O 系列解鎖 Agent 應用,DeepSeek R 系列是開源的勝利、專注的勝利、本土年輕團隊的勝利
晚點:過去將近 6 個月,AI 領域最重要的兩件事,一是 OpenAI 去年 9 月 o1 釋出,另一個是近期 DeepSeek 在釋出 R1 後掀起全民狂潮。我們可以從這兩個事兒開始聊。你怎麼看 o1 和 R1 分別的意義?
戴雨森:我覺得 o1 首先讓大家看到了 Reinforcement Learning(強化學習)應用於 Post-Training(後訓練)帶來的推理、邏輯能力等智慧提升。後來 o3 釋出,又證明沿著 o 這條技術路線,模型能力還能持續提升,它的邊際效益還很遠、空間還很大,現在有訊息說 o4-mini 也訓練完了。其實之前頭部公司或多或少也瞭解到強化學習挺有用,但 o1 出現後,大家才確定這條路真能行得通。
o 系列模型帶來的推理能力提升,是解鎖 Agent(智慧體)這種產品形態的關鍵。因為如果模型思考能力不夠強,它就沒法自主使用工具、制定計劃、檢查自己的工作有沒有完成。所以得先靠 o 系列提升模型的思考能力,才能解鎖新產品形態。
晚點:據你所知,o4 相比 o3,主要的迭代是什麼?
戴雨森:據說 o4-mini 的推理時間可能達到幾個小時級別。我們常說訓練模型,其實就跟培養一個更聰明的人差不多。優秀的人類和一般人類的區別是什麼?為什麼博士論文要寫 5 年?因為一個博士他可以透過 5 年的時間得到一個更好的、更高價值的工作。所以首先這個人基礎素質要好,其次還得有足夠的時間。
晚點:那麼 R1 的意義呢?某種程度上,它的影響力超過了 o 系列,R1 是全民都在討論的話題。
戴雨森:R 系列確實是一個世界級的工作,給了我們非常多啟發。
第一就是開源 VS 閉源。當它選擇開源,大家就能瞭解模型的訓練過程。在 R1、V3 的訓練論文裡,我們看到了大量 OpenAI 早就知道,但公眾此前並不知道的事。比如 DeepSeek-R1-Zero 證明了,在不用 SFT(監督微調)的情況下,僅基於基礎模型 V3 進行強化學習,就能讓模型輸出更長的長度、獲得更好的智慧,實現推理的 Scaling Law。不用 SFT 是個很重要的創新。
之前很多人在探討 o1 時,會思考是不是可以透過 MCTS(蒙特卡洛樹搜尋)這種搜尋方式去實現?但 DeepSeek 很慷慨地分享說,他們試過這些方法,都行不通。其實很多時候,知道一條路走不通是很重要的。
我最近學到一個詞,叫 “一位元資訊”,意思是有些關鍵資訊,一個位元就足夠傳達了。我覺得 DeepSeek 這篇論文厲害之處就在於,它給大家提供了這些 “一位元資訊”,比如之前很多人在探討 o1 時,會思考是不是可以透過 MCTS 這種搜尋方式去實現?但 DeepSeek 很慷慨地分享說,他們試過這些方法,都行不通。其實很多時候,知道一條路走不通是很重要的。這種 “一位元資訊” 也反映出矽谷和中國的差距,矽谷可能還有一些 “一位元的資訊” 我們不知道。其實 2024 年年中,在矽谷,強化學習走得通已是一線實驗室的共識,但這個資訊傳到中國可能要到 o1 出現後。
開源的作用還有,我們看到微信、百度這些原本就有自己模型的公司,也因為 DeepSeek 開源接入了它,這能使更多人能用上好模型。比如我們投資的 Monica,最近推出的國內版也用上了 R1,開發者們手頭的 “武器” 更豐富了。開源還能促進整個行業更快發展,大家可以互相學習、共同進步。所以這是開源帶來的勝利。
第二,我覺得是強化學習的勝利。OpenAI 並沒有公開 o1 訓練的具體細節,但 R1 讓大家看到,強化學習這條路真的能走很遠。
第三,R1、V3 以及整個 DeepSeek,都充分證明了專注的重要性。在資源受限時,大家反而能想出更具創造性的解決辦法。比如,用 MoE(混合專家系統)是一種節省資源的方式,要是用傳統的稠密模型,推理成本和訓練成本都會高很多。這說明,資源限制往往能成為創新的動力源泉。
DeepSeek 也是一家在研究方向上做了很多選擇的公司。2023 年,很多人都在做多模態生成、AI 虛擬女友,也有不少人專注於開發 to C 產品,但 DeepSeek 沒有跟風。他們直到 R1 釋出之後才推出自己的 App。雖然 DeepSeek 已經擁有很多卡、錢以及很優秀的人,但他們依然專注於提升模型的基礎能力,把力量集中在一個方向上。
同時,DeepSeek 也讓我們看到,年輕的 AI-native 團隊有能力跟規模更大、資源及使用者更多的大廠 PK。DeepSeek 雖然不是普通意義上的小公司,但相對來說,它還是比較年輕的團隊,團隊裡很多成員都是中國本土培養的研究生、博士生。這讓大家對中國的人才體系充滿信心。
還有一點對我來說也很重要,DeepSeek 證明了在技術革命早期,如果能透過技術進步為使用者帶來全新的、像魔法般的體驗,就會收穫意想不到的成果,同時也會湧現出商業模式。
很多人第一次使用 DeepSeek-R1 的推理模型時,看到它輸出的結果,會覺很棒。這會引起自發的傳播,帶來了大量自然流量。沒有投入一分錢廣告費,就獲得了幾千萬的日活躍使用者(DAU)。同時,它的 API 也供不應求,甚至很多人主動提出希望能有一個付費穩定版的 R1 模型。所以我覺得,在技術革命的早期,要堅持技術突破、在智慧上領先,而不是在已有的智慧上進行產品和運營的雕花。
晚點:這已經是共識了嗎?
戴雨森:2023 年到 2024 年期間,就有很多研究者表達過 “智慧很重要,不要在已有的基礎上雕花”。但我覺得大家需要一個實際的、鮮活的例子。在 2024 年 DeepSeek-R1 出世之前,大家都過於關注網際網路時代的指標,比如 DAU、使用者留存率以及使用者使用時長等。就拿當時很火的 AI 虛擬女友和 AI 打電話功能來說,為什麼會有那麼多人熱衷於開發這類產品呢?原因就在於,從資料上看,這類產品的使用者留存率比較高,使用者與它們互動的時間也很長。畢竟和 AI 打電話,時間自然就拉長了。但這真的能代表智慧提升嗎?至少我個人覺得,這更多是滿足了使用者的情感需求,並不是智慧的提升。如果把時長、DAU 作為最佳化指標,就不會去做 Deepseek 這樣提高智慧的產品。
在中國網際網路領域,一直存在著不少爭議。大家都知道企業服務的土壤不足,而且似乎使用者更願意為 “殺” 時間付費不為省時間付費,所以大家都習慣性的尋找下一個字節跳動。我在 2024 年 10 月給我們的 LP 做彙報時就提到,未來可能不會再沿用字節跳動的公式,因為字節跳動是透過佔用使用者時間去賺錢的,然而使用者的時間是有限的,抖音、王者榮耀等已經佔據了使用者大量的時間。所以,接下來具有創新性的 “殺手應用”,可能會是那些能夠幫使用者節省時間,或者在這 8 小時、 16 個小時以外去給使用者創造價值,而不是一定要把刷抖音的時間搶過來,那是很難搶的,抖音很厲害。在這種情況下,DeepSeek 就成為了一個很好的範例。
Agent 解放人的注意力,帶來 “資本轉化為生產力的 Scaling Law”
晚點:以 o 系列和 R 系列為代表的推理模型,接下來會帶來哪些行業和應用變化?有一點你之前已經提到過——推理能力的提升,會指向 Agent 應用,這也是從去年下半年到現在大家頻繁討論的話題。
戴雨森:按照我們剛剛講的框架——技術進步解鎖新的產品形態。我們可以看到,GPT 3.5 解鎖了 Chatbot(聊天機器人);以 Sonnet 為代表的 程式設計能力很強的模型,解鎖了像 Cursor 這樣的程式設計助手。而 o1 及後續的 o 系列模型的進展,讓模型的推理能力變得很強,解鎖的產品形態,我覺得可能就是 Agent。
什麼叫 Agent?在英文裡 “agency” 有主觀能動性的含義。以前地球上只有人類具備主觀能動性,我們清楚自己的目標,能制定計劃、使用工具、評估工作成果,這也是人類能統治世界的原因之一。但現在 AI 能力逐漸到達了一個突破點,使 AI 能扮演 Agent。在我看來,這是由三個技術進步解鎖的:
第一是推理(reasoning)。推理能力是 AI 的基礎智慧,如果推理能力不足,AI 就無法明確自己的任務目標,難以制定出切實可行的執行計劃,更無法判斷自己是否完成了任務。
第二是程式設計(coding)。在數字世界,理解 code、寫 code、完成各種任務是基礎技能,是賽博世界的 “語言”。
第三是工具使用能力(tool use)。在數字世界,人已經為自己造了這麼多工具和軟體,那 AI 要想充分發揮作用,首先得適應人類用的這些工具,比如能用瀏覽器和網站來獲取資訊。
過去 12 個月裡,這三種能力都發生了翻天覆地的變化,進入指數增長的階段。為了衡量這些能力,業界有一些不同的 benchmark(基準測試)。以推理能力為例,我們常用 GPQA 測試,這是一種模擬人類博士生入學資格水平的測試。在這個測試中,普通人類大約能得 20 多分,人類博士生能達到 60 分左右。在 2024 年年初,最前沿的大模型僅得十幾分。但如今,像 o3 這樣的模型,已經達到了 70 多分,漲得非常快。
在衡量 AI 程式設計能力時,大家常用 SWE-Bench 進行測試,它抽取了一系列 GitHub 上真實的人類程式設計任務。在 2024 年初,4o 得分只有個位數,基本是不可用的狀態。但現在,o3 已經到了 70-80 分,這意味著人類 70%-80% 的程式設計任務 AI 都可以解答。
AI 能力的快速發展已經給我們帶來了一個新的問題——我們很難再找到合適的題目來測試 AI 了。前段時間,陶哲軒(知名數學家,菲爾茲獎得主)提出了一個名為 Frontier Math 的測試,裡面最簡單的題目都是 IMO(國際數學奧林匹克競賽)級別的難題。當時大家認為,這些難題至少能夠擋住 AI 幾年,結果現在 o3 在 Frontier Math 測試中已經能拿到 25 分,o4 的表現應該會更好。Alexandr Wang(Scale.ai 創始人)弄的那 “Humanity's Last Exam” 的問題,現在模型也能拿到 20 分了(滿分 100 分)。
所以一旦強化學習應用到某個領域,AI 能力的成長曲線常常呈指數式增長。就像之前 AlphaGo 出現,它用強化學習技術,在圍棋上取得了巨大突破。後來,DeepMind 開發的 AlphaStar,在《星際爭霸》中,也憑藉強化學習迅速超越了人類頂級玩家。還有自動駕駛技術,其實從技術層面講,它已經比人類駕駛安全很多倍了,只是由於各種監管因素還沒大規模應用。
我把這種 AI 能力超越人類的標誌性時刻稱為 “李世石時刻”。李世石與 AI 進行圍棋對決時,大家發現,AI 原來連最強的人類都能輕鬆打敗。
晚點:當人類很難,甚至不再能評價 AI 的能力,會帶來什麼?
戴雨森:其實現在已經有一些苗頭。比如春節期間有一篇文章,據說是梁文鋒發在知乎上回應馮驥(遊戲科學創始人)的,非常火,後來大家發現那是 DeepSeek 寫的。
另一方面,現在 AI 的研究能力就已經能給人很多幫助了。我最近一直在用 OpenAI 的 Deep Research,帶來了很多震撼。其實 Agent 的第一個應用場景就是幫我做研究。我向它提出一個問題,它得思考如何解答、列出研究計劃、尋找資料、做總結和對比。
從原來沒有推理能力的 4o,到 o1、o1 pro,能進行更深入的思考,再到 o3-mini high,然後又有了 Deep Research。整個過程也就 3-6 個月,但我明顯感覺到它的水平指數級提升。
昨天我就在想,要是從大街上隨便找十個人,至少九個已經比不上 Deep Research 了。因為 Deep Research 能在幾分鐘內,針對任何你需要的話題,給出一份在我看來達到在較好公司工作一兩年的白領水平的研究報告。所以我覺得 AGI 已不再是一個科幻概念。現在在收集資訊、整理資訊這類任務上,AI 已經超過了大多數人。
晚點:這會帶來什麼創業機會的變化?
戴雨森:Agent 最大的意義,在於在人類歷史上,所有事情基本都需要人的 Attention,只有一種情況例外,就是機械自動化,但它沒有主觀能動性。而 AI 技術進步帶來了一種不需要人類的注意力,又能自主執行任務的可能。
不誇張地說,這是人類誕生以來最大的進步。如果說人和其他動物的區別在於人會使用工具,而以前人用工具時都需要 Attention,直到現在有了 Agent 這種不需要 Attention 的工具。比如我把問題丟給 Deep Research,它自己研究 5 分鐘,這期間我不用 Attention。
這帶來的改變是,過去所有網際網路產品模式,我覺得可以用一句話來概括,就是 “Attention is all you need”(注意力就是你所需要的一切)。
不管騰訊還是位元組,它們核心都是看有多少使用者在自家產品上花了多少時間,這可以用一個公式來表達:時長 × 使用者數 × 變現率。但這件事是有上限的,畢竟總共就這麼多人,每個人一天就這麼多時間,所以很難把用手機的時間再提高一倍。於是大家就想提高變現率,這就變成了抖音的影片廣告、直播,但這條路也有盡頭。
而現在可以提出一句新的話:在 Agent 時代,“Attention is not all you need”。當人類的 Attention 不需要再被使用的話,它會解鎖人類無限的潛能。這就好比老闆讓員工做事,就不用 Attention。
以前大部分人都是執行別人 Attention 的結果,只有少數人是老闆。但現在 AI 越來越強大,每個人都能當 AI 的老闆。那讓 AI 做什麼就是一個很重要的問題。我覺得這對社會、教育都會有重大影響,不過我相信,等大家適應了這種正規化後,會發現有更多事可以交給 AI 做。
進一步延展,我覺得我們可能會看到一種工作的 Scaling Law。其實現在工作、生產力不太容易被簡單地擴大,比如一家大廠,即便有 100 億甚至 1000 億資金,也不能直接把這些錢轉化成生產力,還得招人、培訓,人多了還會內鬥,所以有錢不一定就有生產力。
但如果 AI 模型越來越強,模型的推理能力也不斷提升,你會發現有錢就等於有算力,就能讓 AI 產生更多生產力,這就是資金轉化為生產力的 Scaling Law。
晚點:世界上需要這麼多生產力嗎?
戴雨森:汽車和飛機發明之前,人們也會覺得,要去隔壁村,走路就行了,為啥要坐飛機呢?至少歷史已重複驗證了這一點,新技術會創造新需求。
晚點:如何確信這會重複發生?其實相比人類物種的歷史和漫長古代史,人類技術爆炸的時間也就四、五百年。
戴雨森:這是個更有意思的點。原來人類的技術爆炸以 一代人 為單位,現在技術爆炸的週期已經縮短到了十年以內,從 AlexNet 問世到現在不過 13 年,ChatGPT 到現在不到 3 年,一代人的生命週期裡就會經歷幾次技術爆炸,人們可能很難適應,這勢必會對社會產生很多影響。
其實指數增長本來就是世界的常態,但在最後陡峭的曲線出現前,它看上去很像線性增長, “gradually, then suddenly”。這也是關注 AI 安全的人如此擔心的原因,現在大家都覺得已經進入指數增長階段,這就不叫未雨綢繆了,已經開始打雷、快下雨了。
一方面,就如 Sam Altman 所說,一人公司會變得強大,如果一個人能很有效的指揮 AI,透過 AI 指揮 Agent,那他可能創造很大價值;另一方面,以往創業者之所以有時能打敗大廠,是因為他們能更高效地把資金轉化為生產力,因為他們有更敏銳的 vision、更努力、沒有組織阻力。但假設大廠投入大量資金去用很厲害的創業 Agent,那普通創業者可能就難以與之抗衡了。這可能導致富人更富,因為富人能買來更多生產力。過去,一個人固然有錢,也可能比不過一個聰明的年輕人,但未來情況可能會不同。
晚點:這是兩個方向,一個是超級個人,一個是像科幻電影裡的反烏托邦 那樣,資源匯聚到巨型公司。
戴雨森:所以 AI 帶來的變化是很大的,不管是從生產力角度,還是社會結構角度。不過,要解鎖這些變化,前提是模型能力得提高。
所以我在想,在技術革命早期找到第一個 PMF(產品市場匹配),有時就像是個甜蜜的陷阱,甚至可以說是詛咒。
比如移動網際網路,黑莓算是第一個找到 PMF 的。當時處理器弱、網路慢,所以它覺得只能搞發郵件、發黑莓訊息、收推送這些功能。為了做好這個 PMF,就做了帶鍵盤的黑莓手機,還以鍵盤為傲。可後來技術進步,處理器更強、網路更快、螢幕更大了,蘋果直接不要鍵盤,做全觸屏手機。那時黑莓還覺得沒鍵盤打字肯定不好用,這就是 PMF 的詛咒,當技術升級,就被自己的 PMF 困住了。
網際網路也有這種情況。雅虎是網際網路領域第一個找到 PMF 的公司,搞的是門戶模式,把資訊列出來給使用者看,有大量內容,得點進去看。後來搜尋引擎 Google 出現,它就一個搜尋框,直接輸入就行。其實雅虎曾有機會收購 Google,可惜出價不夠高,最後被 Google 顛覆了。
聊天機器人(chatbot)可能也是個甜蜜的陷阱。現在有這麼多 chatbot,大家可能就想在這個基礎上最佳化。但我一直覺得,chatbot 可能會限制前沿 AI 模型的能力。比如你和 ChatGPT、Kimi 或者豆包聊天,會像在微信上那樣進行碎片化的短對話,模型的智慧不一定能體現出來。但如果要給 Agent 一個指令,很多時候就得寫更復雜的描述,得完整闡述要做的事、目標和條件,要進行完整溝通。
我之前跟 OpenAI 的同學聊,他們發現先進的模型在和使用者聊天時,並沒有讓使用者滿意度提升太多。這就有點像跟人在微信上聊,你跟一個普通大學生和一個科學家聊,感覺差別不大。但要是讓他們寫論文,那就是 0 和 1 的區別。所以 chatbot 這種早期容易被大家接受的形態,不一定是能走到最後的產品形態。在這個基礎上做短期指標最佳化,可能就會想法讓大家停留更久,比如出個打電話功能。但打電話和智慧提升是一致的?把電話打好,可能靠的是語氣、情商,跟智慧和提升生產力沒關係。
兩種 Agent 形態:“只讀 Agent” 和能 “寫” 的 Agent
晚點:如果按照你說的工作 Scaling Law 的邏輯,在 2025 年,第一批出現的 Agent 會是什麼樣的產品呢?
戴雨森:第一批,我覺得是像現在最火的 Deep Research,解決研究、分析需求,我把這叫 “read only Agent”(只讀 Agent)。
不光 OpenAI,最早是 Google 接著 Perplexity 都推出了 Deep Research ,好多創業公司也打算做這個方向。因為大家發現,讓 AI 更深度地研究資訊、獲取更多資源,再決定下一步獲取什麼樣的資訊,形成迴圈,最後給出一個研究報告,這就是我們平時讓分析師乾的事。為什麼它是 “只讀”,就是它只做讀取操作,不做寫的操作。這類產品的 PMF 已經很明顯了,我用 Deep Research 確實比實習生幹得還好,付費意願和使用場景都很明確。
第二步就是從讀到寫。OpenAI 推出了 Operator,Anthropic 推出了 MCP(Model Context Protocol,模型上下文協議),其實都是在讓 AI 使用工具。
我們投資的 Monica 就在做類似的產品—— 現在大家知道了,它叫 Manus。昨天他們跟我分享了一件很有意思的事,比如說有個測試問題,要獲取美國某地,比如鳳凰城的地鐵時刻表。這個模型先去官網查,發現連結打不開,這時候它直接呼叫郵件客戶端,給鳳凰城市政府發郵件詢問,最後走到了確認是否傳送郵件這一步,它完全能自主做這些事。
這裡面有很多有意思的特點。比如 AI 能主動使用工具,呼叫瀏覽器,還有自己的 “電腦”。以前很多人覺得,像國內 AutoGLM 這類應用,是讓 AI 操控我們的手機,比如在我們手機上點外賣。但仔細想想,助理幹活是用自己的裝置還是用你的裝置呢?肯定是用他的。所以應該是我的 AI 助理在雲端,有他自己的手機或電腦,然後用他自己的裝置給我點外賣,而不是用我的手機,畢竟我自己還得聊微信、刷抖音。這其實就是虛擬化技術。
晚點:在許可權上,Agent 還是得用你的賬戶體系嗎?
戴雨森:不一定,你可以給 AI 配一臺它自己的 “電腦”,這樣你可以讓它用你的賬號,也可以給它單獨的賬號。
你會發現,當 AI 能使用工具時,它能做很多事。大部分軟體工具的使用方式,要麼是調 API,要麼是操作軟體介面本身。所以 Kimi k1.5 裡的多模態推理很重要,特別是在使用軟體介面時,要看懂網頁才行。現在大家都在說用世界模型去理解世界,這其實挺難的。比如我們看東西能知道物體有前後、有深度,但現在 AI 識別深度資訊還表現一般。但要是隻是操作電腦和手機介面,AI 能做很多很多事。
我再舉個例子,當 AI 遇到問題時,理論上它可以發帖求助,甚至可以懸賞讓其他人或機器幫它做事,因為它已經和支付商綁定了。這不是科幻情節,現在完全能做到。而且我們發現,強大的 AI 模型能想出很多人類想不到的解決問題的思路,比如 AI 會想,能不能換個問題,或能不能獲取原本沒有的許可權。
不過這也有安全隱患,因為 AI 為了解決問題,可能會帶來一些傷害。我自己碰到過一個典型例子,我用 Windsurf 讓 AI 做一個網站示例,它部署這個網站時,說有兩個程序佔用了埠,要把它們殺掉,我當時同意了。可後來一想,萬一殺掉後系統崩潰了怎麼辦。當然這些問題是可以對齊的,但存在潛在風險。
這種具備 “寫” 功能的 Agent,一旦做好了能力很大,但普及起來會更慢,因為它可能帶來的後果也很大,需要對它進行大量監控、訓練和對齊,還要防止它被濫用。
所以我覺得 “讀” 的 Agent(普及)會比較快。“寫” 的話,Operator 是個例子,你用它訂機票,會發現它還不如自己訂得快,每一步都要你確認。
不過在 AI 領域,慢的問題總能解決。從慢變快、從貴變便宜,是 AI 行業一直在發生的事。可以想象一下,要是原本助理需要花 30 分鐘完成的事,AI 一秒鐘就能搞定,那每天能多做多少事?這對大家的衝擊會很大。
晚點:這個進階的過程,是不是就是 OpenAI 之前定義的五個 AGI 階段?Agent 後面是創新者,再後面是組織者。
戴雨森:對,這裡面又會衍生出幾個問題。最簡單的一個就是,現在是人指揮 Agent,那能不能實現 Agent 指揮 Agent。假設每個任務都能在一秒鐘內完成,那人類提問題的速度都跟不上 AI 了。
晚點:以後做採訪提綱,可能就我們的 Agent 對接雨森的 Agent,然後它們就把提綱寫好了。
戴雨森:這完全有可能實現,不過有個重要問題,就是 memory(記憶)。現在你用 ChatGPT 和我用 ChatGPT 回答同一個問題的結果差不多。但如果是和我相處了幾年的助手,除了公有資訊那部分外,回答問題肯定和你的不一樣。這樣咱倆的 Agent 才能有內容可聊,因為我們都有我們自己的 memory,但現在這個 memory 機制還非常初級。
我覺得記憶特別重要,但大家都還沒做得特別好。就拿 ChatGPT 來說,它所謂的記憶,其實就是跟你交流時形成了一個系統提示(prompt),比如記住 “這個人有一條狗,這個人是個大學生” 之類的,這很簡單。但實際上,真正的記憶非常長,而且這些記憶有的是你跟它對話時主動灌給它的,有的可能是它透過其他方式獲取的。總之,記憶會是很關鍵的一點。
還有 Online Learning(持續學習)也非常重要。現在 AI 模型更新權重還得重新訓練、發新版本。但人,不管是透過讀書還是社交,都能不斷學習,主動改變大腦裡的 “權重”,不需要經過重新預訓練。
還有很多很有意思的前沿探索。比如現在 Agent 用的是人類的工具,但如果它比人類聰明十倍、快十倍,為什麼還要用人類的工具呢?所以,可能會有一系列專門為 AI 設計的工具,AI 專用工具以及 AI 如何迭代自己的工具都值得研究。說不定到時候,AI 的工具我們人類都不會用,就像很多人不會用 EDA 一樣。
晚點:行業發展真的很快,其實我們兩三個月前聊 Agent 時,你還會提到程式設計助手類的產品,它好像現在不在你的 “只讀” 和 “寫” 的 Agent 產品形態框架裡了。
戴雨森:我覺得 Agent 和 coding 的關係,第一步是去做 coding Agent,像 Cursor 或 Windsurf,這是目前 Agent 比較容易落地的場景。
但我覺得更進一步是 Agent that can code,比如說你的助理如果能寫爬蟲,就能幫你搜集更多資訊,相當於你的 Agent 掌握了程式設計這項技能。我覺得這會是接下來更大的發展正規化。
而且像 Cursor、Windsurf、Devin 等開發工具主要面向的程式設計師在人群中佔比有限,那對於更多非程式設計師的知識工作者來說,給他們用的 Agent 必須會寫程式碼,因為只有靠寫程式碼才能在賽博世界行動自如。
“瓶頸徘徊” 和 “直道狂奔” 交替出現,創業公司的機會是去做大廠忽略的事
晚點:你覺得好的 Agent 更多會來自應用公司,還是來自像 OpenAI、Anthropic 這樣有強大模型能力的公司?
戴雨森:目前看,模型公司確實能利用 RL 提升模型能力,用更強大的模型最佳化自己的 Agent,它們可能確實有優勢。
不過應用公司也有幾個好處:第一,它能混用多種模型,發揮各模型的長處;第二就是使用者心智方面,就拿 Perplexity 來說,它一開始做 AI 搜尋,佔據了使用者心智,它用的模型在不斷升級,多數使用者就覺得它是 AI 搜尋的代名詞。Cursor 也是個很好的例子,一開始大家覺得它是套殼,但實際上它和模型相互成就。要是沒有 Sonnet 3.5,Cursor 不會那麼火,也實現不了預測下一步程式碼的功能;而要是沒有 Cursor,Sonnet 3.5 也缺少一個讓它火的載體。
晚點:你之前提到 Monica 在做一些 Agent 產品,他們也是基於別的模型或者開源模型來做的,是嗎?
戴雨森:他們不自己訓練大模型,會做一些微調。如果不延期的話,他們下週會發佈一個很有意思的 Agent 產品(Manus 於 2025 年 3 月 6 日開始內測)。我們覺得,當你能使用模型,讓模型去使用工具,再做一系列巧妙的產品設計,其實能帶來很不一樣的體驗。
晚點:你剛才還提到,Chatbot 這種形式作為大模型的第一個 PMF,可能是個 “甜蜜的陷阱”。那在 Agent 這種形態上,會不會也有 “陷阱” 的部分呢?我是指哪些對 Agent 的最佳化可能會讓你分心,或者拖慢你極致逼近 AGI 的腳步?
戴雨森:Agent 的 “陷阱”,我還沒想得特別清楚。但我有個感覺,如果現在有個 AI 產品使用者量很大,為了服務好這麼多使用者,可能在模型尺寸和能力上就得做妥協。舉個例子,要是使用者特別多、模型很大,在中國大家覺得收費也比較難,如果免費給大量使用者提供一個推理成本很高的模型,那肯定不划算。這時可能就得把模型做得更輕便一些,但更輕便的模型會不會和追求 AGI 有衝突呢?
所以我覺得,當 DeepSeek 有這麼多使用者時,很多人討論要不要留住這些使用者,我認為其實這也是個 “甜蜜的陷阱”。它有幾千萬 DAU,而且世界各地使用者的使用場景各不相同,要把他們服務好,不管是算力、產品設計還是運營上,都得投入大量的精力,我覺得這會影響探索 AGI 的資源,畢竟資源不是無限的。
晚點:現在看起來,DeepSeek 好像並沒有有意去留住使用者。
戴雨森:我認為這是正確的,這樣才能跟微信合作。如果 DeepSeek 也想借這個機會做一款超級 App,那微信估計很難跟他們合作。
晚點:其實我想到一個 Agent 可能的 “陷阱”,是多模態。不過我覺得做 Agent 的話,更相關的是多模態理解,而不是生成。
戴雨森:我覺得多模態肯定很重要,但目前它對智慧的提升沒那麼快。因為語言是一種非常濃縮的智慧,依靠語言來提升智慧是一條比較快的途徑。要是語言這方面研究得差不多了,接下來就是影像。
影像裡資訊量很大,但包含的智慧卻不多,要看多少影片才能總結出牛頓定律?所以我覺得影片更多是在具體應用上發揮作用,在提升智慧上,目前它的資訊壓縮率還不夠高。
晚點:那為什麼大家都在訓多模態模型?
戴雨森:這分兩種情況。第一種是像 Sora 走的多模態生成路線,這有明確的 PMF ,因為全世界那麼多影片廣告,像現在很火的遊戲廣告 “做飯大橘貓”,這類做得差不多就能變現。
可靈、海螺這些影片生成模型,效果也挺好,反而現在看 Sora,起了個大早,最後卻沒那麼驚豔。還有 Midjourney,它都沒融資,就已初步實現了 PMF,自然就有人去做。
但現在大家普遍覺得,影片生成在提升智慧方面可能不是最重要的,大家還是往推理方向上 “卷”。這就像走路,當你眼前有一條明確的路時,很多人就會先選這條路。
所以在 AI 領域,我們會不斷經歷探索和奔跑交替的過程。當遇到瓶頸時,你會發現之前那些看似漫無目的的分支探索說不定能帶來突破。所以從公司角度看,一方面得 “直道狂奔”,另一方面,也要有這種 frontier 探索,因為不知道未來會發生什麼。
晚點:所以說還是得大公司更有資源來做 AI 嗎?
戴雨森:得看現在處於哪個階段,以及這個階段會持續多久。如果處於需要創新的階段,那創業公司有可能透過不同的 vision 去避開大廠的競爭。但如果現在就是 “直道狂奔”,那肯定是誰有錢、誰有卡,誰就更容易往前衝。創業公司的長處就是去做那些大公司沒看到的事情,如果都 “明牌” 了,那大公司更有優勢。
晚點:我們剛才討論 Agent 在 2025 年可能會普及的時候,其實沒特別提到成本這個維度。成本降低是不是推動 Agent 發展很重要的點?
戴雨森:當然,而且我相信成本降低是一定會發生,Agent 的能力也會不斷變強,但中間遇到瓶頸、碰到卡點也是完全有可能的。所以我覺得,得先讓它能用,再讓它變得好用,最後變得便宜。
而且在中國和美國,Agent 落地的難度也不一樣。美國人工成本特別高,所以像 Devin 當時定價是每小時工作 6-8 美金,而美國加州平均最低工資是 16 美金,就算去麥當勞打工一小時都得 16 美金。第一是很便宜,第二是一年之後它能力會更強。所以在這種習慣為企業服務付費的環境下,是合理的。
我自己也是 GPT Pro 每月 200 美金套餐的訂閱使用者,其實就是兩瓶茅臺的價格,但可以讓你體驗未來,我覺得太划算了。它能讓你做 100 次 Deep Research,每次 2 美金。要是讓實習生做,首先我不可能半夜兩點要求他五分鐘內給我一份報告,而且他做出來的報告基本沒有 Deep Research 好。
威廉·吉布森說過:“未來已來,只是分佈不均” 。我覺得現在那些已經在使用前沿 AI 或者用得很好的人對未來的想象,和很多第一次用 Chatbot 甚至還沒用過的人,是非常不均勻的。我真的覺得,在文書工作方面,AI 替代人已經不是想象,而是正在發生的事。
晚點:那你覺得在 RL 解鎖 Agent 之後,下一個技術正規化變化可能是什麼呢?
戴雨森:首先我覺得 RL 可以走很遠。其次,我認為接下來很重要的一點是發現新知識。Anthropic 的創始人 Dario 寫了一篇文章叫《Machines of Loving Grace》,他提到未來 AI 要再進一步,就是如何發現新的科學、獲取新的知識,這也在 OpenAI 的五級分類裡,就是第四級 innovator(創新者)。
因為大量的科學發現通常是先提出設想,再透過實驗去驗證。在設想這方面,AI 可能已經做得很好了。但在驗證環節,有時需要觀察,有時要進行物理、化學或醫療實驗,這方面可能會受一些限制。如果我們能找到一種方法,大規模並行地開展實驗,來驗證 AI 提出的假設是否正確,包括有些像數學定理這類的,還能透過純思考產生新知識。那從這一步來看,AI 可能就會進入一種 “左腳踩右腳” 的狀態,它產生新知識,再用新知識來自我改進、自我進化。
但到那時候,產品形態可能又會不一樣。大家可能不再只想著讓 Agent 幹很多活兒,而是希望能有癌症治療方法,甚至能研發出長生不老藥。
開源不是所有公司必選項,DeepSeek 的獨特性在於中立性
晚點:剛才聊了 o1 的一大意義是解鎖 Agent 產品形態,這幾個月,另一件對競爭格局影響很大的事就是 DeepSeek 的出圈,它採用了非常徹底且一貫的開源。大廠和其它創業公司的處境與動作都在調整,比如說騰訊元寶、百度文心這兩個大廠 AI 主力產品都接入了 DeepSeek。阿里通義和位元組豆包都暫時沒有接入。你覺得豆包會接 DeepSeek 嗎?
戴雨森:如果豆包接入 DeepSeek,我會覺得很意外。因為在我看來,位元組特別想探索智慧前沿智慧,很注重自己基礎模型的研發。要是接入 DeepSeek,不管是對外形象還是對內士氣,都是一個挺大的改變。
但從另一個角度說,如果豆包的使用者覺得 DeepSeek 更好用,那從使用者價值的角度看,接入也是合理的。不過我覺得這肯定不是位元組做 AI 的初衷,他們還是想在 AI 領域實現全面領先,而且他們的人力和資源都很豐富。
晚點:那騰訊呢?
戴雨森:有人說騰訊做短影片是後發先至,讓別人先跑三年,反正微信使用者這麼多,始終都能跑出來。之前就聽說,騰訊在大模型這塊也抱著後發制人的想法。因為它有使用者關係、使用者資料,大家又都離不開微信,它可以等模型技術收斂或成熟後再接入。而且微信是基礎設施產品,不能做太大調整,不然會給使用者帶來很多影響。所以我倒是覺得騰訊接入 DeepSeek 這件事很值得點贊。因為微信裡的 AI 搜尋去年就在推進了,但接入 DeepSeek 這個決定肯定是騰訊高層做出的。這對騰訊的使用者是好事。
接入 DeepSeek 之後,騰訊很多產品的資料增長都很不錯,可能是兩位數的增長。從 DAU 角度來看,現在很多人點微信搜尋,下面就會出現下載「使用了 DeepSeek-R1 的元寶」的提示,導量能力無與倫比。所以元寶現在排 App Store 第二,明天可能就第一了,這都很正常。
晚點:你覺得這是騰訊的選擇嗎?它在自研大模型上沒那麼激進,略慢一籌,就是知道會有人做出更好的模型,到時憑微信這個大殺器,再積極接入?這是它設定好的主動戰略嗎?
戴雨森:我聽說這是騰訊主動選擇的戰略,但我同時也聽說混元大模型在大量招人擴充團隊。從中國網際網路過去的經驗看,大廠很少完全依靠第三方來提供關鍵基礎設施。
所以一方面,我覺得騰訊現在這個決定非常厲害,也許會開啟一個新時代。在美國,Netflix 一直用亞馬遜雲服務(AWS),雖然亞馬遜有 Prime Video,是 Netflix 的直接競品,但 Netflix 仍然覺得 AWS 在商業和技術上是最好的選擇。但在中國,以前都是有了支付寶,就得有個微信支付,大家都想有自己的東西。不過我覺得選擇 DeepSeek 肯定是個很中立的決定,因為 DeepSeek 也沒打算做一個超級 App,也沒想 to C。
晚點:馬化騰知道梁文鋒對做一個大 DAU 產品沒那麼感興趣。
戴雨森:是的,所以他們至少現在目標很明確,雙方合作也有基礎。但騰訊會不會一直不想要自己的大模型?這很難說。之前大家說微軟就靠 OpenAI,後來微軟也自己訓練模型,甚至還投資了 Anthropic。
這些情況都可能發生變化。但最核心的是,誰能一直處在前沿。在過去兩年多時間裡,我們已經看到很多聲稱要做基礎模型、挑戰智慧的公司逐漸掉隊,這也合理,畢竟做這件事需要人才、資金和大量創新。
晚點:除了 DeepSeek,中國創業公司裡,誰還有可能保持在前沿?
戴雨森:獲得風險投資(VC)的創業公司,原來說的 AI 六小虎,目前看下來,我覺得只有 Kimi 在人才、團隊、資金和使用者上,具備這樣的能力。OpenAI 最新發表的一篇論文,還同時 refer(提及)了 R1 和 K1.5 的研究成果。(真格是月之暗面早期投資方。)
晚點:說到 OpenAI 的論文同時提及 K1.5 和 R1,這兩個成果其實是同一天釋出的。最初在技術社群的反饋差別沒那麼大,但最後整個影響力差別卻非常大,這是為什麼?
戴雨森:我覺得開源是一個關鍵差異。確實 DeepSeek-R1 的一些工作意義很大,而且它開源後大家都能使用,尤其在西方引起了很大反響。
本來過去幾年,矽谷就一直有人質疑預訓練花這麼多錢到底值不值。很多二級市場投資人開始擔心錢花太多了。這時 DeepSeek 突然說 500 萬美金就能訓練一個 o1 級別的模型——當然這是誤讀,論文裡寫得很清楚,那只是最後一次訓練的成本。但就有人想搞大新聞,在美國引發了大量擔憂,導致 1 月 27 日英偉達股價暴跌 16 個點。當這件事成了全球新聞,它的影響力肯定不是 Kimi 單純發一篇論文或者一個技術創新能比的。
有個和 DeepSeek 很熟的同學跟我說,他們覺得美國的 OpenAI 或 Anthropic,訓練像 V3 這樣的模型,甚至都不用花 500 萬美金,他們有更大的叢集和更多訓練經驗。但當時很多不太懂行的人看到這個敘事,就開始對比 500 萬美金和別人融的 10 億美金。現在大家也漸漸明白不能這麼比。英偉達的股價又快恢復了,對吧?
真的行內人可能更關注像當時 MLA(DeepSeek-V2 模型中的一個創新) 那種降低推理成本的創新。另外,模型智慧提升和訓練與推理成本的下降,是一直在發生的事兒。比如 GPT-4 的 API 推出以來,成本已下降超 90%,今年還會再降 90%。晶片會更強大,大家也會找到更多降本的最佳化方法。
所以我覺得現在大家最關注的還是智慧能不能提升,只要智慧能提升,成本會快速下降,大家相信這個曲線一定會發生。
晚點:DeepSeek-R1 之後,Anthropic 創始人 Dario 寫了一篇長文章,文章前半部分就是在分析,DeepSeek 的降本成果其實在行業曲線之上,並沒有超出預期。
戴雨森:對,包括智慧提升方面也是。當然這篇文章後面有點氣急敗壞了,但他前面的技術分析挺好的。聽說 Anthropic 馬上要發 Claude 4 了,這也許也是 DeepSeek 帶來的好處,就是作為一個實力強勁又開源的對手,它像鯰魚一樣,讓其他人不得不加快步伐。
回頭看,DeepSeek 還有個優點,它是一個全新應用,一上來就是 R1 和搜尋的結合,是從一張白紙開始做新產品。
R1 還有個特點,我後來才意識到,大家在訓推理模型時,都是對標數學和程式設計能力。 無論 OpenAI、DeepSeek 還是 Kimi 發的論文,都是在對標美國數學邀請賽(AIME)、數學競賽(MATH)和程式碼基準測試(Code Bench)。但 DeepSeek 出現後,讓它出圈的反而是它的文筆。
R1 的回答有點天馬行空,動不動就扯到量子力學。其實 OpenAI、Kimi 和豆包一直要避免這種情況的怕模型胡說八道。但很多人自發傳播 DeepSeek,恰恰是因為覺得它的回答和思考過程特別有創意,我不知道這是不是陰差陽錯,但事實上也會導致它傳播得更廣。
晚點:你和其他 AI 從業者交流,大家覺得這是陰差陽錯,還是 DeepSeek 有意訓練了寫作能力?
戴雨森:有不同的說法,一些人認為,可能是有意在文筆上做了加強,甚至還找了北大中文系的人來做標註;但也有人認為,這是對齊不夠充分導致的,畢竟它是一個 research lab,所以沒太對所謂中立性、真實性進行微調,釋出後大家直接就用了,沒想到這個特點反而成了好的特性。
單從結果來看,這是 R1 出圈的重要原因。因為真正用它做數學題的人沒那麼多,大部分人反而拿它算命,分析 MBTI 測試,並不是一般想象中一個 AGI 的前沿模型要做的事。
晚點:R1 帶來的另一個影響是,很多之前閉源的公司現在也在像 DeepSee 那樣開源。你覺得字節跳動有可能開源豆包大模型嗎?
戴雨森:第一,得處於領先地位,開源才有價值。要是開源一個不怎麼樣的東西,那沒什麼意義;第二,我覺得開源稍微弱一點的形式就是免費。免費加領先,我覺得這就很厲害了。
是不是一定要開源?我覺得這次 DeepSeek 有個 “甜頭”——它開源後引起了西方的高度關注。在美國引發大新聞後,回到國內大家就更覺得它厲害了,讓美國人 “破防” 了。當然,開源也帶來了和微信的合作,但這不僅僅是開源的問題,而是公司得堅持做這件事。
比如說,假設現在豆包開源,微信會接入嗎?我估計不會。這不是開不開源的簡單問題。假設豆包現在和 DeepSeek 一樣厲害然後開源了,微信也不會接入,阿里千問本身也是開源的,但微信也不會接入。這不是它們能力不行,而和這幾家公司的市場位置有關。
所以我覺得梁文鋒厲害的地方不只是開源,而是他們堅持開源,而且站在一個不會讓大家感到威脅的定位。
晚點:你覺得 DeepSeek 對那些本來就在開源生態裡想要主導的公司,比如 Meta 和阿里這樣一直都在開源的公司,會有什麼影響?
戴雨森:我覺得是一種激勵。原來開源社群,開玩笑地說有點像 “賽博佛祖”,有點做慈善的感覺,不管是阿里還是 Meta,都是大公司拿出算力給大家訓練模型,帶動整個行業發展。但現在來了一個進步更快、更開放的 DeepSeek,這既是壓力也是激勵。
但確實,我覺得 DeepSeek 的中立性是一個比較獨特的優勢,騰訊也可以用、百度也可以用,這不僅僅是能力問題,是他屁股坐在哪兒的問題。
晚點:其實這一輪阿里還是比較開放的。
戴雨森:千問和 Llama 挺相容的,而且它的產品模型不錯,更新也很頻繁,所以很多開發者都在用千問。說實話,DeepSeek-R1 在使用時存在很多 “幻覺”,所以如果用它來做應用,可能不一定是最好的選擇。
晚點:在 DeepSeek 全民爆火之前,在海外技術圈,千問和 DeepSeek 就很受關注,它們倆都是開源系列。
戴雨森:確實,覆盤一下就會發現,不管 Kimi 的 benchmark 做得多好,如果對別人不開放,不能開源使用,也不提供海外應用服務,那在海外確實就沒有認知度。
晚點:Kimi 為什麼不開源?你們之前是怎麼討論的。
戴雨森:我覺得即便到現在,開源也不是一件必須做的事。比如說,在沒有保密競爭壓力、沒有融資壓力的情況下才會考慮開源。
而且我們現在看到的是事後的結果,因為開源再加上一些偶然機會才有現在的情況(R1 的爆火)。對於一家商業公司來說,核心還是在於能不能創造使用者價值,並最終將使用者價值轉化為商業價值。所以我覺得開源不是必經之路,只是一條很有意思、很創新的路。
晚點:但今天所有聲稱探索 AGI 的公司現階段都不會以使用者價值為核心,很多還是以技術價值為主。
戴雨森:只有技術價值提升了才能帶來使用者價值,所以探索技術前沿非常關鍵。大模型出現後,可能湧現出了一批所謂比較務實的投資人或創業者,他們想著用現有的技術去賺錢。但我覺得 Kimi 肯定屬於另一類,它是要提升技術前沿,這又回到我們一開始說的,打造出令人驚歎、如魔法般的產品體驗,最終會獲得商業價值。
其實 Kimi 在 2023 年火起來,一個很重要的原因是,它是第一個把 chat、搜尋和長文字結合起來的產品。當時 ChatGPT 不能搜尋,而且 ChatGPT 對於長文字、多檔案的處理也不是很好。所以 Kimi 在前兩三年,就是憑藉著長文字處理的技術理念,以及將搜尋和聊天相結合,帶來了不一樣的使用者體驗,從而成功出圈的例子。
尤其在當時,Kimi 剛成立,還沒融到那麼多錢,也是年輕人、小團隊,資源受限,必須專注在一件事情上,選擇一個正確的方向。其實 DeepSeek 現在火的很多因素,放到 2023 年的 Kimi 身上也成立。當資源有限的時候,就要在一個關鍵的點上突破,給使用者帶來那種非常驚豔的體驗,這才能出圈。這不是往自己臉上貼金,我是真覺得它們有一些相似之處。
晚點:Kimi 接下來會更專注嗎?會砍掉一些東西嗎?
戴雨森:他們已經砍掉了很多東西,比如海外業務,他們現在就是要繼續衝 SOTA(模型最佳表現)。
晚點:他們正式決策不做影片生成大模型了嗎?
戴雨森:至少從目前看,有所不為很重要。
英偉達的地位是否被撼動,很大程度取決於模型架構會不會固化
晚點:o1 和 R1 對大家都很關注的算力需求也會有持續影響。一種觀點覺得,因為訓練、推理成本低,所以會減少對算力的需求,更多人的觀點是,這會開啟更多應用,所以總算力需求會大幅提升。
戴雨森:我覺得算力需求有不同的結構。原來就是訓練和推理,在 2023 年到 2024 年的軍備競賽階段,大家好像覺得只要買足夠多的卡,就能得到更好的結果。那時預訓練還沒撞牆。
但現在我們發現,對預訓練的大量投入的邊際效益是有限的。比如 Grok 3 用 20 萬張卡訓,雖然有進展,但提升在遞減。
接下來會發生的事情是,由於模型能力已達到了做 Agent 的臨界點,並且還在不斷變強。所以當 Agent 產品形態落地後,它使用的 inference(推理,即模型使用階段)算力會大幅增加。相比 chatbot,可能不是提高 10 倍,而是 100 倍、1000 倍。這個技術轉折點已經到了。
這就是為什麼 Altman 說,ChatGPT Pro 雖然每月收兩百美金,但還是在虧錢,因為 inference 需求增加了很多。我覺得這裡面有兩個情況,一是預訓練、後訓練和推理的算力佔比會變化;二是這確實會對英偉達產生格局上的影響。在 2025 年 2 月,英偉達在推理和訓練方面,肯定還是效能最強且效率最高的選擇。不過我們也看到,當 R1 火了之後,國產晶片就開始針對 R1 優化了,這種定點最佳化其實效果更好。
晚點:華為昇騰已經可以支援 R1 了
戴雨森:是的,當技術還沒收斂時,GPU 具備很強的通用性。
為什麼會有英偉達?最早都是 CPU,它是最通用的。後來大家要玩遊戲,遊戲有很具體的需求,所以就做了 GPU,專門來加速遊戲,當然後來 GPU 可以做 AI。目前,GPU 對 AI 的通用訓練和推理來說,還是最好的選擇。但要是隻服務於某一個具體模型,有兩種做法。一種是像昇騰這樣,可以專門做最佳化;另一種做 ASIC(專用積體電路),像博通、Marvell 那樣去做。
晚點:比如像 Google 做 TPU 那樣,針對自身的需求去最佳化。
戴雨森:一旦架構穩定下來,在晶片領域通常就能透過專用化來提高效率。這取決於架構到底會不會固化下來,這也是大家激烈討論的點。
目前看,o 系列這條路還能走很遠,那可能 ASIC 就會逐漸 work。但假設明年、後年,架構基礎會變化,Transformer 都不 work 了,換成其他架構,那做 ASIC 可能就白做了,還得靠 GPU。這裡面有很多不確定因素。
不過英偉達確實存在一個問題,它的市場佔有率都 90% 多了,份額太高了,很難再增長。現在一方面大家對未來算力需求的預期比較高,另一方面對英偉達的市場格局以及由此帶來的毛利率預期也比較高。一旦市場格局出問題,英偉達的毛利率可能會受影響,這是大家比較擔心的。但現在所有 AI 公司,包括 DeepSeek 最想獲得什麼,肯定還是英偉達的產品,能買多少就買多少,想盡辦法買。
晚點:有些預期已經反映在股價上,比如做 ASIC 的博通近期漲得很好。
戴雨森:博通或 Marvell,這兩個表現都挺突出的。但要說 ASIC,第一,基本上得到 2027 年才能用得上;第二,這裡面還存在一些情況,比如價格變化可能會導致 ASIC 這條路不 work。並且要做出 ASIC 並投入使用,在產能、良品率、效率等方面也有很多問題,不是說想設計就能做出來的,這裡有很多不確定因素。當然,英偉達也遇到了一些問題,比如液冷問題、整體良品率問題等。
總之我認為 Agent 產品落地,對算力需求整體是利好,大家現在也都知道了傑文斯悖論(指工業革命時蒸汽機變便宜後,蒸汽機市場規模並沒有縮小,而是因更多工廠開始使用蒸汽機,其市場規模大增)。但英偉達市場格局是否會變化,只能說出現了一些新的可能性。所以部分炒股的人,Deepseek 出來後的第一反應是看到相關新聞先拋再說,現在看好像問題不大,再加回來。
AI 現在還處於精英給精英打造超級工具的階段,它未來的價值是普惠
晚點:我們剛才聊了很多對未來的展望,有些可能今年就會出現,有些可能要等很久之後。你覺得 2025 年我們大機率會看到些什麼呢?
戴雨森:我覺得我們會看到更多的 “李世石時刻”,就是在一些任務上,AI 超過 99% 的人類,其實這種情況已經在陸續發生了。比如說寫程式碼,現在 AI 寫程式碼的能力應該比 99% 的人類都要強。
晚點:當越來越多 “李世石時刻” 出現,然後呢?我現在都有點想象不出會發生什麼變化,比如人要去做什麼,社會結構會怎麼改變。
戴雨森:我覺得我們正處在人類歷史上一個非常有意思的時期。其實指數增長是世界發展的常態,因為我們每年都是在前一年的基礎上增長。但能親眼見證並親身感受指數增長,是很罕見的事情。
一般來說,這種指數增長得用一生去體會。但在 AI 上,具體講,從 o1、o1 Pro 再到 Deep Research,我在短短幾個月內就明顯感覺到了它的指數級增長,這種體驗很特別。而且我覺得這會讓我們對未來的預期發生很大改變。
我覺得我們得做好應對沖擊的準備。像安全問題,以及新技術出現後如何解決社會福利問題,也許只有當這些情況真正發生時,大家才會真正重視起來。
晚點:而且這個能力掌握在誰手裡,其實是影響世界格局的。
戴雨森:所以加速主義就認為 AI 肯定會發展,壞人會用 AI 去做壞事兒,所以好人應該更快發展 AI。
我在想,一方面很多人可能會失業,現在大家對 AGI 的定義是它能替代多少人的工作,那如果實現了 AGI,不就等價於很多人會失業嗎?也有人說那時候物質會極大豐富,每個人都發錢,我也不知道到底會怎樣,我覺得肯定會有很多衝擊。
我們人眼中的真實也會發生巨大變化。我是 1986 年的,我成長階段,一個人能接觸到的多數資訊是經過權威認證的,要麼是書、要麼是報紙,不然根本沒辦法出版。後來網際網路的巨大意義在於,能讓普通人寫的東西被看到,現在 AI 變成了你想要什麼就能生成什麼。我發現,包括我自己在內,很多時候都沒有判斷力了,沒法甄別資訊的真假。所以在這樣的環境裡,如何進一步適應,建立起自己的認知體系,我覺得是非常重要的問題。
這對我們的社交以及認知世界的方式都會產生很大影響。我發現科技發展有個規律,第一波往往是最厲害的人創造出最強大的技術,第二波就是用強大技術為最厲害的人打造最強的工具,最後這些技術會走向大眾。以計算機為例,開始是為了研究核彈或破譯密碼而出現的,這種為 “超人” 設計的超級工具會逐漸走向大眾化,普及到普通人,然後小型化進入家庭,再發展到移動化,無處不在。
AI 現在還處於最厲害的一群人給精英人群打造超級工具的階段。但我覺得這個東西最終肯定會惠及大眾。當初我們投資王慧文的光年之外,口號就是 “加速 AGI 普惠人類”。不過中間肯定會像威廉・吉布森說的 “未來已來,但分佈不均”。所以我覺得不管是 DeepSeek 這種開源也好,還是 Kimi、豆包這種大使用者產品也好,其實都是在加速未來更加均衡地分佈,都有重要意義。我覺得新技術最終是要惠及大眾、全人類的,這樣才有真正的價值,而不是隻掌握在少數有錢人或少數公司手裡。這是我希望看到的結果。
晚點:你個人在為可能更快到來的 AGI 做一些什麼準備?
戴雨森:鍛鍊身體。我覺得投資優秀創業團隊其實很重要。當然,梁文鋒一開始也是創業者,只不過他太厲害了,自己炒股、自己做量化就能賺到錢。還有很多可能成為梁文鋒那樣的人,他們或許缺少啟動資金。所以我覺得 VC 在這個時候很重要,尤其是早期投資。因為早期投資承擔的風險最大,要是很多事情都已經確定了,那也就不需要我們了。
晚點:你有什麼最近覺得有意思的、想給人推薦的書嗎?
戴雨森:我給人工智慧從業者或比較願意深入思考的讀者推薦 A Brief History of Intelligence,還沒有中文版,可能翻譯成《智慧簡史》。這是我 2024 年的年度推薦書,作者是一位科技創業者 Max Bennet。他從生命誕生講到 GPT-4,把智慧在地球上幾十億年的演進總結成五次大突破,並把每次突破的驅動原因、發生的變化以及變化帶來的結果都解釋得很好。我把這本書推薦給 OpenAI 的研究員,他們也覺得很好,這本書能讓我們對智慧是怎麼來的有很多啟發,適合比較專業的讀者的書。
另一本,我最近讀了覺得很有意思,也有點專業的書,是《第一隻眼》,作者是 Andrew Parker。這本書講的是寒武紀生物大爆炸。在寒武紀之前,地球上的生命已經出現了 30 億年,但一直是很初級的形態。然而在寒武紀短短幾百萬年裡,生命突然爆炸成十幾種不同門類,產生了很多進化。有人說是因為地球大氣成分變了,有人說是海水成分變了。而這本書的作者提出了 “光變假說”,後來李飛飛新書裡也引用了這個假說。
就是在某個時候,一隻原始三葉蟲身上出現了一個感光斑點,它有了對光線的感受能力,這隻三葉蟲由此獲得了很多優勢,它能去亮的地方,迴避暗的地方。直到有一天,其實這一天用了 100 萬年,在進化史上這是非常快的時間,第一隻 “眼睛” 出現了,原本都是 “瞎子” 的世界裡出現了一個有眼睛的生物,它立刻獲得了巨大的生存優勢,而被它捕食的生物開始進化出甲殼,也進化出眼睛,地球開始了生命進化的競賽。
這讓我想到現在的 AI。就像《愛麗絲漫遊仙境》裡的紅皇后假說——你必須全力奔跑才能留在原地或不被消滅。不管是模型還是公司,它們的不斷奔跑,讓我們獲得了更好的技術,讓世界發展。生存競爭是生命的特點、智慧的特點,也是進步的原因。這本書也給了我很多啟發。
晚點:你剛說的《第一隻眼》挺有意思。其實如果去想智慧這件事,會發現語言是比較晚才出現的,它是一種比較高階的智慧形態。
戴雨森:所以語言模型一開始用語言去壓縮資訊,肯定是對的,因為這是智慧含量最高的東西。當然再往下想,還有很多智慧沒有用語言表達,那麼用語言去訓練智慧,是否會受到語言本身的限制?而且如果 AI 非常聰明,它要重新發明一種語言,可能就不會是我們現在這樣的。
晚點:劉慈欣有一本科幻小說《鄉村教師》,裡面的外星人就認為人類靠語言交流是一種非常低效率的方式。
戴雨森:對啊,所以我覺得我們從語言模型開始,但最後也許會超越語言模型。如果 AI 的思維速度比我們快 1 萬倍,智慧也比我們高很多,它的語言就不會和我們一樣。所以我覺得現在回過頭去看智慧是怎麼產生的很重要,我們現在看到的是智慧經過幾十億年發展後的結果叫 “語言”,但如果再走一遍,未必是這樣,所以要回到源頭去探索它的原動力和每次變化的原因。
題圖來源:由 GPT-4o 生成。Prompt 是:請把西斯廷教堂由米開朗基羅創作的《創造亞當》這幅畫裡,上帝和亞當的手將要牽在一起的經典畫面里亞當的手換成機器人的手。依然保持原作的畫風。

– FIN –





