但斌火線回應:DeepSeek爆火後三大投資疑問

2月12日上午盤中,但斌執掌的私募機構東方港灣公開發文:
此前,圍繞這位百億私募大佬的最新季報組合,以及他長期看好的英偉達與“DeepSeek衝擊波”,討論十分激烈。
作為過去兩年私募主動投資的“冠軍”,但斌一直看好並重倉包括英偉達在內的部分海外科技股。
但斌對英偉達的高倉位押注,還疊加了槓桿工具,可謂對晶片龍頭股保持相當高的預期。
如今,他從技術角度,回應了DeepSeek“火爆全網”後引發的三大投資“疑問”
1) 中國團隊在算力卡脖子的情況下,仍能研發出全球領先的AI大模型,是否說明了今後AI的進步不需要算力?
2) Deepseek團隊透過修改PTX指令集,優化了GPU的使用,是不是意味著繞過CUDA的壁壘,今後使用國產晶片可以暢行無阻了。
3) 中國模型的降本與平權,會帶來什麼投資機會與風險?

全球算力需求還會增加

但斌在文章中指出:Deepseek的成果會增加全球AI算力的需求,而非減弱。
他認為市場最大的誤解是,從根本上把演算法、算力和資料三者進行對立,誤認為演算法的創新進步,是對算力和資料形成了“替代和競爭”。
“而實際上,演算法、資料和算力三者之間,是一種‘協同關係’。”
假設過去演算法低效時,單位晶片在一個用例上只能服務10個使用者;現在演算法提效了,同一晶片可以服務100人。該晶片如果不提價,其價值量肯定是翻了10倍,而不是變得更低。如果一個商品的價值量提升了10倍,而價格不變,那麼需求一定是上升的,這是經濟學常識。

AI應用普及將加快

但斌進一步指出:成熟AI模型的“降本與平權”已是過去2年大趨勢。2025開年Deepseek作為“追趕者”送出的大禮包也在這一趨勢內,這是走向“應用普及”的必經之路。
而成熟模型的降本與前沿模型的探索是兩碼事,想爭做AI時代模型的領頭人,所需算力和資源都不是小數,這也是除了Openai以外許多巨頭的野心。
世界上任何一種技術的發展,基本遵循著“創新-跟隨-降本”的發展模式。前沿的“探索者”會花重金和時間進行實驗探索,最終找到一個有效果的技術方案,並將其商品化;
緊接著,社會會出現一大批“跟隨者”,沿著探索者的思路去復現其產品,並在工程上進一步降本最佳化。這種成本最佳化的思路又會回到探索者那裡進行整合和降本,雙方相互學習,相得益彰。
在所熟知的領域裡,包括了創新藥與仿製藥,特斯拉與中國電動車,還有大模型領域,皆是如此。

傑文斯悖論

但斌還提及,隨著AI成本的大幅下降,AI應用普及帶來的推理需求才是算力的主場。
我們在年度思考中對比過o1模型的推理成本,在每百萬token55美金的輸出價格下,Agent應用使用推理模型幾乎是寸步難行。而短短不到一個月,推理模型成本被追趕者的工程最佳化降低了100倍,我們預期的Agent應用生態,在以極快的速度向我們走來。
Deepseek帶火了一個概念——傑文斯悖論,指的是當資源使用效率提高後,資源的消耗總量不會下降,反而會增加的經濟現象。該理論最早於19世紀應用於煤炭的消耗問題。當瓦特改進蒸汽機,提高了煤炭利用率後(單位動力耗煤量大幅下降了75%),燒煤蒸汽機被更廣泛地應用到工廠、鐵路和船舶上,反而加速了煤炭消耗總量,也提升了煤炭價格。同樣的情況,也發生在當汽車燃油效率提升(每公里耗油更少了),帶來的行駛里程和總油耗的大幅增長,以及LED燈節能導致更長開燈時間和更多地方安裝燈光,總體耗電量不降反升的情況。
當一項技術未被大面積採用之前,其單位資源消耗量的下降,反而會促進整體資源消耗總量的上升。同樣的情況,也會在AI模型的應用身上發生,因為AI時代才剛剛開幕。

CUDA的壁壘不會被削弱

另外,但斌還很有信心的認為,CUDA(英偉達所推出的一種軟硬體整合技術)的壁壘在未來不會被削弱。
他舉了一個例子:AMD(一家美股晶片公司)正在透過HIP轉換器,將CUDA程式碼遷移,仍然存在效能損失和適配成本。這類似於在蘋果電腦上執行Windows系統——雖然技術上可行,但效能、相容性和體驗通常比原生環境差。除此之外,幾乎沒有更好的替代方案。
他還提及了一個細節,內地團隊為了最佳化英偉達晶片的使用效率,不滿足於CUDA的高階語言編輯,直接在底層編輯PTX指令集,對H800晶片中的流處理器進行通訊任務分配的修改,從而一定程度提高了全互聯的通訊效率和穩定性。很多人看到這裡,會認為相關團隊沒有使用CUDA軟體,而是用PTX組合語言對GPU進行功能修改,因此團隊具備能力繞過CUDA,使用匯編語言在其他廠商的晶片上去復現模型的訓練,這是很大的誤解。
相關團隊之所以能夠使用PTX(全稱為:平行計算任務執行緒的執行)進行任務執行的最佳化,也是英偉達架構的“可編輯性”所允許的。英偉達經常會吸收開發人員編輯PTX的創新工程方法,反過來最佳化官方的CUDA運算元,這也是CUDA生態的反哺優勢。
他自己很樂觀的認為:CUDA並未被繞開,壁壘反而被增強。

AI應用會湧現各種投資機會

但斌進一步提出觀點:隨著技術發展,全球的AI應用會湧現各種投資機會,而大模型企業的商業模式會繼續飽受挑戰。
DeepSeek以一己之力,短短一個月為全國人民做了一次“AI科普”,並在模型能力和推理成本上追平甚至超越了大多數美國模型。
其更重要的貢獻在於發現了一種高效的方法,即利用經過強化學習訓練並具備推理能力的大模型進行蒸餾,從而生成包含“思維鏈”的樣本資料,並對小模型進行直接的監督微調。
但斌還指出一個細節:在大模型領域,即沒有網路效應也沒有專利保護,希望成為領頭羊的模型企業,只有持續保持前沿模型領先,才能維持巨大的使用者數量和定價優勢,以彌補前期高額的探索成本。這種難度現在也變得越來越大了。
⭐星標華爾街見聞,好內容不錯過

本文不構成個人投資建議,不代表平臺觀點,市場有風險,投資需謹慎,請獨立判斷和決策。
覺得好看,請點“在看”


相關文章