螞蟻武威:下一代「推理」模型範式大猜想

長思維鏈是深度思考的一種實現,但未必是最理想的。
作者丨陳彩嫻
R1 之後,長思維鏈成為研究下一代基礎模型中 “推理”(Reasoning)能力的熱門方向。一方面,R1 證明了大模型深度思考的可行性;與此同時,儘管 R1 展現出了強大的效能,大模型推理的序幕實則才剛剛拉開。
此外,R1 在海外掀桌也給國內人工智慧的研究帶來一個顯著影響,即:越來越多的研究者敢於站在更高視角思考,提出前瞻引領的技術思想。螞蟻技術研究院自然語言處理負責人武威對推理的思考就是其中一個典型。
武威的本科與博士均畢業於北京大學數學科學學院。2011 年獲微軟學者後,他於 2012 年加入微軟亞洲研究院,歷任主管研究員、微軟小冰首席科學家。加入螞蟻前,他還曾任美團 NLP 中心負責人。
針對模型的推理,武威從數學出發,提出了許多與目前業內主流不同的聲音。
事實上,早在 OpenAI 釋出 o1 之前的 2023 年下半年,武威與團隊就已開始研究大模型的推理問題。武威指出,R1 的實現結果是令人興奮的,但同時他評價,長思維鏈推理未必最優,“因為這樣的模型維度太高、能量太高,以致表現不太穩定。”
實際上,物理與化學中的大量現象均表明,能量最小的結構才最穩定。因此,武威猜想,未來的推理模型可能是更低維、更穩定的人工智慧系統。如果說長思維鏈是系統 2,一些研究則顯示,在人的日常思考中,佔主導的往往是消耗更低的系統 1。
此外,當前的主流推理模型都出現推理結果正確、但推理過程出錯的現象。在長思維鏈的實現中,糾錯的成本也隨之增加。同樣以數學為例,武威指出:當推理模型發展到最後,思考過程或許比結果更重要;相比解決一個問題,模型在思考中發現新知識(如經典數學問題的新證法)是更有價值的——由此可見,深度思考還有很大的潛力。
如何設計一個能夠將系統 1 與系統 2、或快思考與慢思考高效結合的推理模型,成為大模型的下一個重要方向。而武威認為,從數學的角度出發,用一個優雅的數學模型去刻畫人工智慧的思維方式或許是終極解法;亦或者,自洽是所有推理系統的最終歸宿。
以下是 AI 科技評論與武威的對話:
1
什麼是「推理」?
AI 科技評論:現在圈內對於「推理」有各種各樣的定義,還有的觀點將 Reasoning 與 Inference 相混淆。
武威:對。根據我自己看的文獻,「推理」的定義最早能夠追溯到 2011 年。那一年,機器學習大佬 Leon Bottou 寫了一篇文章,叫「From Machine Learning to Machine Reasoning」。當時業內對「Reasoning」還沒有一個清晰的定義,Leon Bottou 就在這篇文章說,他認為「Reasoning」(推理)是「代數地操作已有的知識去解決新的問題」。
論文連結:https://arxiv.org/pdf/1102.1808
那什麼叫「Reasoning System」(推理系統)呢?Leon Bottou 認為,推理系統應該包含兩點:一是包含一個函式的代數空間,二是任何一個問題都能對應到這個代數空間中的一個函式組合。——我當時看到這個觀點,就覺得跟 Marvin Minsky 在上世紀 80 年代的一本書《Society of Mind》(心智社會)中對「智慧」的觀點是非常吻合的。
什麼是真正的智慧?Minsky 認為,人的意識應該是由非常多的小的過程(smaller processes)組成的,他管這些叫「Agent」(智慧體)。這些Agent能夠解決非常簡單的問題,而且幾乎不消耗能量。當遇到複雜問題時,這些Agent一部分會被啟用,並且會以一種方式組合在一起——這時候真正的智慧就誕生了。
今天再看,Minsky 在上世紀 80 年代提出的觀點可能有點過於經驗性,但同時我又覺得非常有道理,因為它非常符合人的直覺。而 Bottou 的文章是用形式化的語言進行了解釋。Bottou 所提到的這個函式的代數空間,你可以認為是這些智慧體的一個集合;而這個函式的代數組合,則是 Minsky 所說的智慧體之間的連線或組合。
接著,Leon Bottou 又在文章裡提出了一個有趣的猜想。他說,現在有各種各樣的推理系統,包括機率推理、邏輯推理、因果推理等等,那麼最終的推理系統會是什麼樣的呢?
他認為有兩種可能:一種可能是出現一個絕對強的(推理)模型,把這些小的(推理)模型都幹掉,而且這個超強模型是能夠擴充套件、能夠計算的,計算成本也是大家能負擔得起的;另一種可能是,不同的推理模型互不干涉、各幹各的,因果推理做因果推理,機率推理做機率推理,邏輯推理做邏輯推理等等。
今天來看,其實 Bottou 的第一種預言被驗證了,這個超強的模型就是「大模型」。但即使大模型出現了,「推理」這件事也仍然是模糊的,而如果讓我給一個定義,那麼我覺得,推理是指:用邏輯組合知識解決新問題的過程
AI 科技評論:R1 有「推理」的雛形嗎?
武威:有,因為假設你讓它去解決數學題,第一它有知識,它會說這個問題應該用 XX 定理去解;然後它會說,解決這個問題應該怎麼做、中間的步驟是什麼。這其實就是將數學知識以一種邏輯整合在一起解決問題
如果將模型應用到其它方向上,不再是解決數學問題,而是變成旅遊規劃,那麼模型就要對旅遊目的地的人文、地理、美食等知識有所瞭解,最後將這些知識以合理的邏輯組合在一起,生成一個旅遊方案。
如果沒有足夠的知識,或者正確的邏輯,那就會出錯:比如我跟大模型說要去西北旅遊三天,模型輸出結果告訴我,第一天上午在烏魯木齊、一個小時後就跑到西安,那就不是正確的「推理」了。所以我說,推理是要用邏輯將知識合理地組織在一起,「知識」與「邏輯」缺一不可。
AI 科技評論:是不是 R1 出來後,您才看到「推理」正規化有所詮釋?
武威:我覺得 R1 提供了一種「推理」的可擴充套件的實現方式,這很了不起。但我同時覺得,長思維鏈的「推理」並不一定時最優的,原因在於能量太高、維度太高。
物理與化學都是追求「最小能量」,因為能量最小的時候、結構最穩定。在化學中,勢能最低時、結構最穩定;在熱力學中,自由能最低的時候、系統才穩定。
但在長思維鏈的推理中,本質上是每一個 token 的預測對應詞庫上的一個分佈,當你有 1 萬個 token 時、其實就是 1 萬維,1 萬乘以這個詞庫維度的向量是非常大的、非常高維的,與之相隨的就是系統不穩定。現在的推理模型實際上在訓練過程中也很不穩定。
所以我覺得,未來在推理模型上應該有一個更低維、更穩定的系統出現。現在的長思維鏈推理都太高維、能量也太高,只要用自迴歸的方式做長推理都會面臨這個問題。
AI 科技評論:那現在除了自迴歸,還有其它的技術路線去實現模型的推理嗎?
武威:現在大家也在探索。把你的問題繞開一點,首先現在大家又回到了已有的「正規化」:當「好」出現之後必然會走向「快」和「省」,所以現在研究推理的人在做「高效推理」。但我覺得,「高效推理」也並不是一個本質的、系統性的解法。
我認為真正系統性的解答,應該是想辦法用一個模型把「推理」的能量降下來。不管是在強化學習里加長度的約束,或者進行混合長度微調,我都覺得不算太優雅,不是最終解決方案,因為你最終的正規化還是在一個大空間裡面去搜索。
o1 是一種相對新的「推理」正規化,但步子邁得沒有那麼大,本質上還是自迴歸生成、token by token。只是做得足夠長了,發現在更長的文字中好像模型能夠去反思、模型效果會變好,但其實還是預測下一個 token。這就牽引出另外一個問題:預測下一個 token 會是推理的有效解嗎?
我覺得它可以作為一個解法,但不一定是那個最好的解法。用數學的話說就是,梯度確實是在下降,但還沒有下降到區域性極小
2
「推理」為什麼重要?
AI 科技評論:您在人工智慧領域做了這麼多年的研究,您的研究世界觀是怎樣的?
武威:簡單來說就是 8個字: “多快好省, 雙商齊備”(智商與情商)。
“多快好省”原是零售裡的說法。在零售中,“多”指“品類多”,能在網上買到各種各樣的商品;但在研究中,我們希望的“多”,至少包括兩塊:
一是模型的任務範圍要廣,解決儘量多的任務。這很重要,比如現在的大模型推理,大家將其聚焦在數學與程式碼上,就不夠多,世界上其實很多問題都需要深度思考才能解決;
二是模型處理的資訊要足夠多。ChatGPT 剛出來時,上下文長度大約是 4k,到今天 GPT-4.1 釋出時,上下文已經達到 100 萬,看起來模型能處理的資訊已經很多了,但實際上還不夠多,因為未來我們或許希望人工智慧系統能夠處理 Lifelong Memory(終生記憶),能“記住”它在這個世界上經歷的所有事情與資訊。
第二個“快”,在零售中“快”體現為“送得快”,而在人工智慧中的“快”,我覺得是“響應要快”。這在今天也是一個共識,現在各家都希望自己的大模型能響應地越來越快。“好”與“省”就是模型效果要好、同時要便宜,這也是大家所追求的。
事實上,人工智慧的整個發展歷史就是在不斷地重複這樣一個“多快好省”的故事。2018 年 BERT 出圈是憑藉效果“好”、任務“多”,接著圈內大家基於 BERT 往兩個方向發展:一是追求更大的模型(如 GPT-3),從結果上看是效果更好,任務更多(生成也能做),二是追求模型的輕量化(即“快”與“省”)。
先是“多”與“好”,接著走向“快”與“省”。當“多快好省”這四個字都達到了一個邊際效益很低的水平時,整個人工智慧領域在幹什麼呢?在準備下一輪的突破。
2022 年,大家覺得 BERT 的“多快好省”已經達到一個瓶頸時,ChatGPT 出來了,也是先“多”(什麼都能做)與“好”(解決一些原本做得不太好的任務,比如長文字生成)。到今天,大模型的追求又變成了要越來越快、越來越省。比如 GPT-4 剛出來時,響應是一個字一個字地蹦,後來變得越來越絲滑、流暢。
所以我覺得,無論是需求側(使用者)、還是供給側(研發人員),大家對人工智慧的“多快好省”追求都是永恆的。 “多快好省”是基礎, “智商”與“情商”是上層能力。模型能力不強的時候,大家很少討論智商、情商,但現在談得越來越多,解讀也有很多。
在我看來,我想追求的“智商”是:用邏輯組合知識,去解決實際問題。這當中有兩個非常重要的概念,一是知識,二是邏輯,而且要有機地組合在一起。智商的一個外延體現就是 Reasoning(推理)。
情商這塊,我們希望人工智慧系統可以理解人的情緒、人的心理狀態等,在與人互動的過程中能夠共情。這很重要,因為現在的大模型都是大應用、都要跟人互動。我們希望沿著這 8 個字的大方向去做一些對行業和社群有價值的研究。
AI 科技評論:沿著這個大方向,你們目前有哪些有趣的研究?
武威:比如“多”,我們一個聚焦的點是長上下文,不僅包括文字、還有多模態。實際上,多模態比文字更需要長上下文,一條几分鐘的影片就可能產生超過百萬的視覺 token。我們剛開源了一個叫 ViLAMP 的 7B 長影片理解模型,單卡就能處理 3 小時影片,而且效果在目前的開源模型中也基本是 SOTA 的。
再比如“好”,我們很看重“推理”(Reasoning),因為推理讓人工智慧有希望把一些複雜問題解決好。“推理”是一個很模糊的概念。如果你去看不同的領域,會發現心理學、哲學、數學與計算機等不同領域對“推理”的定義是不一樣的。而在我看來,“推理”是用邏輯組合知識的過程。在這個大框框下,我們先後做了知識推理智慧體 AMOR,基於程式碼規劃的推理正規化 CodePlan,以及基於深度思考的問題合成方法 PromptCoT 等。
再比如“情商”,連資料都不太完善,因此今年我們也開源了一個包含 130 萬條個性化對齊資料的資料集 AlignX,至少希望社群能先玩起來。總的來說,這塊的研究還沒有收斂,但我覺得“情商“”最終還是要走到模型對人類世界的理解,而這個理解也可以認為是某種程度上的 “推理”,只不過可能是對人類偏好或人類情緒的推理。今天大家把“推理”限定在了數學與程式碼上,最後大模型都變成了做題家與程式設計師,我覺得範圍限制太死了,實際上大模型還可以是好的產品經理、銷售、朋友,有非常大的潛力。所以我說,推理這件事很重要。
AI 科技評論:您入行 15 年,經歷了許多重要的技術浪潮。您認為,為什麼在現在這個時間點,推理顯得更重要?
武威:我記得在 MSRA 的時候,大約是 2014 年,大家還討論過為什麼 NLP 叫“自然語言處理”。因為當時大家覺得,機器都還不能理解人類語言,更別提生成了。
那時深度學習開始興起,NLP 也開始擁抱深度學習。2015 年,我參加 ACL,當時是 Christopher Manning 做了開幕式演講。他當時形容,NLP 就像躲在戰壕裡的兔子,深度學習就像一把機關槍或大炮,正在瞄著這些兔子、準備把它們一掃而平(笑)。
後來發現,在深度學習的幫助下,機器對語言的理解能力好像還行,後來又發現竟然還能生成、創造。這是一件了不起的事。深度學習不僅在語言理解上展示了非常強大的潛力,更重要的是它讓生成也變成了可能。
到 2018 年 BERT 出來,“預訓練+微調”又是另一個技術浪潮,直接改變了整個 NLP 的運作正規化,使 NLP 走向了大一統。2020 年 meena出來後,短文字生成已經做得很好了。ChatGPT 出來後,長本文生成被突破,這在之前的很長時間裡是不可想象的。現在沒有人單獨研究長文字生成,因為被大模型研究囊括了。
所以總的來說,當我們在講自然語言處理時,我們在問自然語言是否能理解;BERT 突破了理解後,我們又問自然語言是否能生成。從處理、理解到生成,是計算機逐漸掌握人類語言的過程。
經歷了一波又一波大的發展之後,我就非常想看推理,因為我覺得現在生成也被突破後,下一步就是推理。推理涉及到要將知識進行組合,複雜度更高,也能解決更復雜的任務。
AI 科技評論:您是從什麼時候開始思考推理這個問題的?
武威:2016年我們在討論小冰未來的技術時就覺得推理很重要,因為小冰做不了推理,所以很多工解決不了。
說實話,討論推理在當時是非常超前的,因為那時候的 Chatbot 不僅做不了推理,也普遍受限於知識不強、無法進行深度交流。沒有知識,生成也會受影響。
當時我們透過生成的方式創造回覆,只是將海量資料裡的語言組合在了一起,符合人類的語言表達習慣、但沒有知識,效果甚至比不過檢索模型。今天的大模型也會有幻覺,也會在知識上犯錯,但出現的情況已經不多。
我在小冰的時候,能想到研究推理,但沒有機會去做,這多少受限於當時的技術,無法以一種規模化的方式去推理。當時我們甚至也想不清楚什麼叫“推理”。
現在我覺得相對清楚了。所以我們團隊真正開始研究推理是在我加入螞蟻之後。這也是源於我幾年前未盡的夙願吧。
3
「推理」的解法猜想
AI 科技評論:2024 年以來,您的一些研究也圍繞推理提出了不同的聲音。您認為 o1、R1 之後的下一步推理應該怎麼發展?
武威:我剛才提到,大家都在做高效推理。但如果從快思考、慢思考的角度來看的話,這個話題其實也很有意思。
《思考,快與慢》這本書是從心理學的角度來解釋一些問題,也比較經驗、沒有一些形式化的驗證。但我們今天來看,OpenAI 的大模型有兩個版本號,一個是數字系列(如 GPT-3、GPT-4),另一個是 o 系列(如 o1、o3),兩個系列分別代表快思考與慢思考,就體現了從系統 1 到 系統 2 的演進。
大家對系統 1 與系統 2 的認知基本已經達到共識,系統 1 的特點就是快、自發、沒有消耗,系統 2 是要把注意力分配給需要花費很大努力的行為與心理活動上。這是作者丹尼爾·卡尼曼認為的快與慢的區別。不過這本書裡,我覺得更有趣的是,作者寫了他認為快思考與慢思考如何協調的問題。
第一個觀點是,書中提到,其實人在每日思考的過程中大部分時間都是系統 1 的快思考佔主導
快思考會產生非常多且複雜的 idea pattern(觀點模式),並將這些傳遞給系統 2。而大部分情況下,系統 2 不經思考就接受了、而不是每個 idea 都檢查一遍。所以日常的思考大多是系統 1 的結果,系統 2 是懶惰的、只有在個別情況下才會去檢查與思考。同時,系統 1 因為想得快,會有很多錯誤,而且還會為這個錯誤提供一些更深層次的洞見。
那為什麼會有錯誤?就像今天大模型為什麼會有幻覺?我覺得可以作為對大模型幻覺的一個解釋。說白了還是能量最低,因為系統 1 要追求“認知的簡便”(Cognitive Ease)——當我把這些資訊跟我的認知整合在一起時,通順、自洽就可以了,至於有沒有錯,系統 1 是不在乎的。
這是系統 1 喜歡乾的事情,這麼幹確實消耗低。然後這些錯誤又因為系統 2 比較懶、不怎麼查,所以導致這些結果被固化了下來。最後這類錯誤積累越來越多。這種錯誤的根源在於認知上的懶惰或簡便,很難避免,但很有意思的點是,作者說:那你又避免不了錯誤,人怎麼辦好呢?他說,最好的辦法是儘可能地發現什麼情況下容易出錯,然後對這些高風險情況儘量多思考。
最終,作者也沒有就如何發現高風險情況提出解法。他認為,許多情況下,人最後就是變成了活在一個自洽的世界裡,哪怕有錯誤、但只要自洽就好。
回到大模型。如果援引丹尼爾·卡尼曼的說法,大模型應該能將長推理與短推理結合在一起,合在一起可能是一個模型,也可能是兩個模型,關鍵在於兩個模型、或兩個系統怎麼排程。目前行業裡也還沒有特別優雅的方式,比較優雅的方式應該是自動分配兩種模式。
AI 科技評論:您提到了核心問題,就是系統 1 與系統 2 怎麼結合起來?單一的 Transformer 架構可以實現嗎?這塊似乎也還沒有共識。
武威:我認為是還沒有一個很好的模型、或者沒有一個很好的 Equation(公式)來解決這個問題,所以大家都還在做一些嘗試。比如把長思維鏈和短思維鏈的資料混合在一起做 SFT,這可能是一種解決方案。或者在強化學習上做長度的 Reward(獎勵)。
但是,它們都還沒有一個模型去刻畫快思考與慢思考,或者說系統 1 與系統 2 之間的協作。
我覺得歸根結底還是要有一個模型、最好是一個數學模型去刻畫人工智慧的思維方式。我的猜想是,這個模型很可能是在低維空間上的一個模型,透過將能量最低進行最佳化來實現。
AI 科技評論:那接下來,您計劃從哪些角度進一步研究模型的推理問題?
武威:除了自迴歸以外,我們也看先規劃、再推理這樣的層次化結構。
比如,要做一個使用者調研的方案,這個任務交給你之後,你是馬上就拿起筆來開寫嗎?不是的,正常情況下是腦海中先有一份草稿,有一個抽象的規劃,然後再去實現每個步驟。——你可以認為,這個抽象的規劃就是整個推理過程中的一個低維表示,在這個低維下我再說我怎麼把它展開變成一個高維的執行。這也是一種推理正規化。
其實 Yann LeCun 每次採訪都在說,規劃與推理很重要。但同時,他又說,他覺得現在的推理模型好像不太對、因為太簡單了。至於什麼樣的推理模型是對的,LeCun 也沒說。
AI 科技評論:剛剛提到系統 1 與系統 2。業內也有一種討論,即我們在設計模型時是否一定要模仿人腦?
武威:說實話,我覺得機器不一定要像人一樣思考。這個問題其實也困擾了我很久,就是我們到底應不應該按照人腦的方式去設計人工智慧的模型。舉個例子,計算機能很快計算出 π 的值,但人腦就不行。
比如《思考,快與慢》這本書中,有大段對人的思維方式的描述,但這些描述就一定是對的嗎?大家確實可以透過一些事實去印證書中的說法,但還是這個問題:你不能說第 1 個 case 是對的,第 2 個、第 3 個、第 4 個……到第 100 個也都是對的,第 101 個 case 就一定正確。
這在數學上是不成立的,數學不允許這種情況出現。如果有例外,數學就一定要有一個條件去約束、將這個例外抹掉。換句話說,不完全歸納法是不對的。
所以我想來想去,最後我的觀點是,不管人工智慧系統到底應不應該像人,我只要想辦法去接近這個目標就好了。這個目標就是我剛才說的 8個字:多快好省,雙商齊備。
AI 科技評論:現在的推理還有一個問題,就是有研究發現,o1、R1 與 Gemini 等模型在做推理時,更重視結果的正確率,中間的推理過程可能是錯的。
武威:關於這個現象,我有兩個觀點。第一個觀點是:我認為長思維鏈是以一種相對笨拙的方式實現了深度思考。當然,它非常有意義,因為它起碼給出了一個實現,即使這個實現是高能耗的。我們不能天天空談深度思考、卻沒有任何實現。
第二個觀點是,當模型的能力發展到最後,思考的過程可能比結果更重要。因為我們回到數學來看,其實很多數學問題已經有結果了,只是有些結果被證實了、有些沒被證實。
比如費馬定理,最早叫費馬猜想,它的結果早就有了,就是當整數 n>2 時,方程 x 的 n 次方加 y 的 n 次方等於 z 的 n 次方沒有正整數解。黎曼猜想也是,早就有結果了,重要的是:你怎麼得到從這個假設到這個結論的整個求解過程。從數學的角度看,推理過程是非常重要的。
所以 Andrew Wiles 的巨大貢獻,一方面是他證明了費馬猜想,將費馬猜想變成費馬定理;更重要的是,在這個證明過程中,數學的許多新興方向誕生,比如橢圓曲線、代數幾何等等,這對數學界是巨大的貢獻。
在我看來,推理是利用邏輯對知識進行有機組合。如果我們在不同的問題上都能給出各種各樣的知識組合,那麼會不會有一些知識組合是人類未曾觸碰到的、對人類文明進步有非常大啟發的呢?如果有,那麼產生這些組合的價值遠比你解決一個問題還要大,因為你會創造出新的知識來。
從這個角度看,其實深度思考的巨大價值與潛力還沒有被挖掘出來。推理的結果很重要,但我更重視當中的思考過程。現在 R1 已經給我們提供了一個高維的實現,我們應該在 R1 的基礎上去做更大膽的迭代。
AI 科技評論:R1 出來後,有改變您對推理的看法嗎?您對推理的研究有更興奮嗎?
武威:我覺得還是很令人振奮的,因為R1 讓我們看到了深度思考的一種規模化實現,不過R1本質上仍然是自迴歸,我覺得這裡面空間還是很大的。
我覺得應該有一個通用的模型,但我也不知道這個模型長什麼樣子。所以 2023 年我們剛開始研究推理的時候,是先研究 Agent。
為什麼是先研究 Agent 呢?就是因為我不知道通用的怎麼做,沒辦法,只能先做一個特殊的 Knowledge Agent(知識智慧體),看能不能擴充套件。我們把一個任務拆成一個個模組,然後再把這些模組用人工設計的邏輯串在一起。
就好像我們在解一道數學題的時候,你不會解,怎麼辦呢?就先找一些具體的 case,加一些條件。比如一個泛函問題,你先把它變成二維空間,二維空間能證明、再看三維空間能不能證明;當二維、三維都證明之後,再看中間有沒有共性、能不能拓展到高維。
R1 令人驚豔的地方是直接就到高維了。我覺得更令人興奮的地方在於透過深度思考來創造新的知識,那這一點 R1 還達不到,因為還沒有辦法保證思考過程是對的。我們也還沒有辦法保證我們的推理過程一定是對的,但我覺得這是一個很重要的問題。
後來我們又探索了 CodePlan,希望用程式碼實現先規劃、後推理。只是我們當時做完後,受限於一些資源問題,沒有辦法驗證它的效果是最好的。今年年初 DeepSeek 團隊有一個工作,也是先用程式碼做規劃,不同的是他們後來又將程式碼變成了自然語言。我猜測可能是因為純程式碼的效果不太好。
最近我們又研發了 PromptCoT,嘗試將深度思考用到問題合成上,也看到了非常驚豔的效果。一個 7B 小模型就可以和 32B 模型比肩。最重要的是,這個工作讓我們看到了深度思考 for 其它任務的可能性。
其實大家都在想,到底下一代推理模型應該是什麼樣的,同時又希望追求智慧極限。這兩個目標都很難,特別是對企業來說。在企業裡,你不太可能說,你有一個非常大的目標、要投入多少資金,還不能確定這個目標能不能達到,這是一個現實問題。理性來說,我們需要更多的 case 去支撐繼續探索的信念。
更多內容,點選下方關注:

未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社群進行轉載!
公眾號轉載請先在「AI科技評論」後臺留言取得授權,轉載時需標註來源並插入本公眾號名片。

//
推薦閱讀

相關文章