Deepseek產業影響的七點研判

作者:土人觀芯
源:土人觀芯 (ID:turenwatch)
毫無疑問,Deepseek是當下最亮的那顆星。連篇累牘的報道已經汗牛充棟。
我作為AI行業的邊緣人——MCU晶片只能算是AI應用領域的邊緣外圍,從我的觀察來分享一些個人看法和預測。
01
摩爾定律普適性
晶片行業最重要的定律,由1965年英特爾創始人摩爾提出,成為半導體技術最著名的發展規律,大意是積體電路上可容納的電晶體數目大約每隔 18-24 個月便會增加一倍,效能也將提升一倍,而價格卻保持不變。
2000年的時候,我在電信做網際網路骨幹網的專案,記得當時採購EMC的磁碟陣列就花了200萬美元,總容量不過4T,而今天一個普通的硬碟容量都遠遠超過這個規格了。當時家庭撥號上網的Modem速率是28.8kbps,下載個圖片都費勁,現在家庭寬頻光纖入戶,已經沒有人關心速率到底是多少了。
Deepseek印證了,在AI算力領域,似乎也符合摩爾定律。即人工智慧的算力成本會迅速降低,效能將不斷提升。
看了最新的Cathie Wood採訪,木頭姐說,在DeepSeek之前,人工智慧訓練成本每年下降75%,推理成本甚至下降85%到90%。
如果 AI 訓練成本的下降趨勢是 每年 4 倍,如果 DeepSeek-V3 的訓練成本比一年前開發的美國當前模型低約 8 倍,那其實完全符合正常趨勢。
僅靠行業的正常發展,2024 年訓練一個模型的成本,理應比 2023 年低 3 到 4 倍。同時,訓練成本的下降也帶動了推理成本的下降。比如,Claude 3.5 Sonnet 相較 GPT-4 晚了 15 個月釋出,但幾乎在所有基準測試中都勝出,同時 API 價格也下降了 約 10 倍。
按照這個趨勢走下去,那麼大模型的收費商業模型似乎很難成立,OpenAI那個200美元的月費服務很快流產就是明證。大模型之間的內卷競爭加速,意味著大模型未來必然是免費的。
大模型和算力作為基礎架構,有點像運營商的頻寬建設,最終會近乎免費。想起網際網路初代的時候,電子郵箱也需要會員收費服務,後來就沒有後來了。
02
炮灰定律
這個定律名稱是我杜撰的,經驗來自過去二十年的網際網路歷史。
當某個行業成為熱點後,必然會有大量風險投資乃至傳統資金蜂擁而入,導致行業出現大批無序競爭者,最後經過一系列競爭整合,最終行業會整合到1-3家頭部企業中,但即使是行業No1也很有可能走不到最後。
比如說百團大戰,硝煙散盡現在美團一家獨大,當初曾領跑的團購獨角獸們比如糯米糰、拉手、F團等已經消失無蹤,其他幾百家團都已成為炮灰。網約車和共享單車大戰,也是一樣的結果。
行業賽道處於快速迭代過程中的時候,領先者往往沒有太多護城河可以防守,技術快速演進時很容易被突然冒出的意外事件打垮,當年網路影片網站流量前三位除了優酷土豆外還有一家56,結果在一夜之間被黑垮掉。
OpenAI目前雖然還暫時沒有對手,但是能不能存活到最後我看並沒有把握。
還有一種情況是整個熱門賽道被全滅,某個熱門技術方向突然不成立了,比如某個投資機構押注元宇宙賽道,八年前All in了所有的VR頭盔廠家,結果可想而知,自己都成為了時代的浪花。
AI大模型賽道,國內有名有姓的廠商也已超過百家,頭部的五六家格局漸漸形成,Deepseek異軍突起,其實是遠超業內業外人士的預見的,之前沒有投資機構關注DS,就是證明。技術快速變化的時候,不管是OpenAI,還是Sora,還是Deepseek,都可能只有三分鐘熱度。
沒有投資機構裹挾的Deepseek能走出來,也說明在無腦機構熱錢喂出來的公司,往往反而會動作走樣,為了迎合資本做出錯誤的決策。
03
傑文斯悖論
根據傑文斯悖論,當某種資源的使用效率提高後,雖然單次使用時消耗更少,但因為成本降低、使用更方便,反而可能讓人們用得更多,導致整體消耗量反而上升。
Anthropic 的CEO認為各公司在訓練強大的AI模型上的投入不斷增加,儘管成本曲線會週期性下移,訓練特定智慧水平模型的成本也在迅速下降。然而節省下來的成本又被投入到使用相同鉅額預算開發更智慧的模型中。
Deepseek短期看似乎降低了市場對算力的需求,但是中長期看成本降低後大量新應用出現,對算力的需求會指數級激增。
電腦、手機和網際網路的發展歷史基本上都是這麼過來的,硬體和應用相互刺激,市場迅速擴大,使用者普及下沉,增量市場蛋糕出現,比如前幾年手機資費增速降費後,智慧手機普及下鄉,PDD和某音迅速從三四線城市和農村崛起,續寫了當年淘寶彎道超車易趣的歷史。
04
ToB/ToC
AI算力成本大幅降低後,無疑將是AI應用的時代,誰將受益最大?
C端市場裡的消費電子(智慧眼鏡)、人形機器人、智慧駕駛確實是主流看法,但我更看好B端應用市場,主要原因是C端全部被網際網路巨頭和終端巨頭卡位了,其他公司進入的機會基本上被封死了。
推理成本降低將帶來極大的利好。推理成本的降低意味著企業能夠更高效、更經濟地部署AI模型,而無需承擔昂貴的訓練成本。因此,那些專注於AI推理的公司——例如雲計算服務提供商、邊緣計算公司,以及AI應用企業——都可能迎來強勁的市場需求增長。
有了AI算力支撐,所有的政府機構和企業都需要對所有工作流程進行重組,以提升效率和降低成本。PLTR的模式已經走在了前面,從Palantir的業務來說,目前主要是超大B端客戶,前20大客戶佔了40%的營收,最小的客戶也要200萬美金,業務屬性有30%偏向定製化服務。大型企業先行,中小企業跟進,未來會出現更多針對行業客戶的AI應用。
AI流程重組應該算是第四次企業流程重組浪潮,之前三次流程重組風口分別是:
1)1990年代,IT初次進入企業,財務電算化和MIS管理
2)2000年代,網際網路進入企業
3)2010年代,移動網際網路進入企業
05
去IOE化
IOE是三個國外大的廠商的縮寫,I是IBM ,O是Oracle,E是EMC。當初所有的IT的基礎建設幾乎都是由這3家公司來提供的。阿里巴巴首先提出逐步去除對IBM小型機、Oracle資料庫及EMC儲存裝置的依賴,取而代之的是成本更低、更靈活的X86伺服器和開源軟體解決方案,從而實現技術自主、成本控制和系統架構的最佳化。
國外去IOE的鼻祖是谷歌,谷歌自己起家的資料中心裡,幾乎都是自己組裝的X86伺服器和自研廉價裝置和開源系統。
開源的Deepseek降低了企業部署AI基礎設施的成本和技術門檻,對於普及企業AI應用將是很大的助力,也可以透過自研和國產替代,去掉傳統的產品模式,變成徹底靈活的網際網路服務模式。意味著哪怕用一堆破裝置,哪怕沒有頂尖的英偉達GPU,也可以自己DIY取勝。
開源vs閉源,透過開源迅速開啟市佔率,Deepseek不會是最後一個,與企業傾向於部署私有云的需求不謀而合。
06
贏家通吃法則
產業鏈是殘酷的,通行的法則是誰占主導地位,誰吞噬利潤。最典型的例子是果鏈,蘋果吃掉了最多的利潤,當然蘋果的供應商也得到了合理的利潤,相比而言給其他品牌手機供貨的供應商就更慘了點。
相應的供應鏈還有汽車(新勢力)、電池(寧德)、PC(聯想)、小家電(小米),服務和內容行業的供應鏈有電商(阿里)、遊戲(騰訊)、影片(抖音)、音樂(騰訊)等。在AI整個供應鏈上,目前英偉達佔據主導地位,但是隨著應用的崛起,是否會讓出主導地位只是遲早的事情。
至於在AI整個供應鏈上,英偉達及其上游臺積電、下游伺服器(配件如CPO、液冷等)、大模型、行業應用平臺、邊緣側裝置、整合商,誰主沉浮,就看誰更稀缺,誰更能抓住客戶了。
07
MCU是否能搭上AI的車?
最近幾天,各行各業都在宣佈爭相接入Deepseek,生怕錯過了這班車。正好蹭一下熱度,我司AG32 MCU採用的開發工具是開源的VSCode,已經實現透過外掛方式接入Deepseek進行輔助開發程式設計,實現程式碼的補全、生成、查錯和對話等功能,甚至可以透過我們官方提供的例程來生成需要的程式碼,提升程式設計效率。
2024年也被稱為MCU的AI元年,將邊緣AI技術融入MCU是各家廠商都在關注的話題。
邊緣AI技術可以使MCU兼顧更高效能的資料處理任務,實現即時決策功能。例如,在智慧工控領域,需要系統執行太陽能和儲能系統中的電弧故障檢測,以及用於預測性維護的電機軸承故障檢測等功能,邊緣AI幫助MCU對裝置和感測器收集的資料進行即時分析和處理,提供更準確的決策,使系統實現更高的故障檢測準確率。
以上這些應用肯定不是AI MCU應用的全部,只不過是歐洲MCU大廠以其貧乏的想象力所能想到的一些有限場景。未來的MCU AI創新應用一定會在中國大放異彩並讓歐美原廠大跌眼鏡。
物聯網、邊緣計算等應用場景對MCU效能要求的不斷攀升,需要MCU在有限的功耗預算內實現高效能計算。MCU自身計算資源與儲存空間受限,實現高算力 AI功能更是難上加難。輕量級AI框架才是MCU需要的技術,螺螄殼裡做道場,能否做出適合邊緣推理的類似Deepseek這樣節省算力和功耗的算力模型,可能是AI MCU能否跑出來的關鍵點。
跟訓練市場相比,LoT終端的邊緣推理需求的數量級大得多得多(百億朝上),MCU作為不起眼的小器件,承擔的是最後一米的活兒,可以稱得上是螞蟻雄兵,也許市場還未關注到這一步,但是早晚會發生。

版權宣告:部分文章推送時未能與原作者取得聯絡。若涉及版權問題,敬請原作者聯絡我們。

相關文章