作者
|Yoky
郵箱
當DeepSeek(以下簡稱DS)成為全球AI頂流,X上也為了它快“吵”起來了。
一邊是以OpenAI和Anthropic為代表的“警惕派”,另一邊,更多的科技大佬們開始成為了DeepSeek的粉絲。
面對中國公司DeepSeek的AI模型R1大殺四方,矽谷大佬們集體破防:馬斯克質疑顯示卡用量,微軟調查資料來源,美國政客甚至搬出“盜取技術”的帽子——素有“矽谷魯迅”之稱的LeCun反手在X上開啟了反諷模式。
話裡話外強調著科學進步靠的是“全球學霸組隊刷題”,而不是“學霸筆記加密上鎖”。
另一邊,HuggingFace聯合創始人Thomas Wolf直接當起了課代表,替網友們總結DS曝光以來,他們的所見所想。儘管這一部分來自於開源社群和開源模型天然站在同一條戰線上,但Thomas本人幾度認為DS和R1是歷史性的顛覆時刻。

作為Anthropic的忠實崇拜者和Claude的長期使用者,當Thomas看到了Dario關於DS和出口管制的文章,他誠實地表示:相當痛苦。
“這篇文章的前半部分讀起來像是一篇冗長的嘗試,試圖證明閉源模型仍然明顯領先於 DeepSeek。如果 DeepSeek 和 Anthropic 模型都是閉源的,是的,軍備競賽的解釋可能是有道理的,但是在我看來,讓其中一個模型可以免費下載並附有詳細的科學報告,這使得整個‘閉源軍備競賽’的論點變得人為且沒有說服力。”

開源沒有國界。Aitomatic創始人兼CEO Christopher Nguyen甚至認為,開源並不是一種策略,而是一種必然。

當然,AWS、Azure和Nvidia這些直接的利益相關者一邊迫不及待身體力行的在自己的雲平臺上部署R1和R1-Zero,另一邊也在X上以此為機會,來俘獲開發者們的芳心。

Perplexity創始人Aravind Srinivas在R1剛剛出現時,其團隊便將其與o3進行詳細的測試和比對,最終得出的結論是:比o3更聰明。

甚至直接將美版R1接入了Perplexity中,為Pro使用者提供每天500次的R1查詢。

除了受益於R1開源戰略的直接利益相關者,另一部分的粉絲則是驚歎於DeepSeek對於成本的極限控制,儘管這並不是什麼新鮮事,但R1讓整個技術界,又震驚了一次。
曾任Tesla總監,也是OpenAI的前創始團隊之一的Andrej Karpathy,直接稱:美國在資料和演算法層面還有很多工作要做。他舉例:同樣級別的Llama 3 405B使用了 30.8M GPU 小時,而 DeepSeek-V3 看起來是一個更強大的模型,只用了 2.8M GPU 小時(計算量減少了 ~11 倍)。

Scale.ai創始Alexandr Wang提到了R1在訓練資料方面的突破了世界紀錄,並更重視資料標註,CEO親自為模型進行標註。“這讓我想起了 Karpathy當年,曾經在特斯拉花了四分之一的時間進行標註。DeepSeek-v3 論文甚至有一個專門的資料標註部分 。”

Midjourney創始人David Holz甚至已經成為了DS的小迷弟,David一直在思考AI與人類的本質區別等哲學問題,DS的回答讓他感到驚喜。

DeepSeek把學術研究和工程落地揉成了組合拳。一邊發前沿論文定義新標準,一邊開源實用工具降低使用門檻,這種“兩條腿走路”的策略反而撕開了行業痛點:大多數團隊還在糾結技術路線時,他們已經把方案塞進了開發者的日常工作流。或許AI創新的關鍵,就是把實驗室的突破變成程式設計師鍵盤上的預設選項。
可以預見的是,這些海外大佬“自來水”還會越來越多。說到底,這些熱鬧都是因為DeepSeek的技術乾貨夠硬。當技術方案真正解決問題時,所謂的“東西方差異”會自動消失。
