

作者
|
薛良Neil
郵箱
|
誰有英偉達GPU,誰就是雲公司
關於英偉達總有新的訊息讓你驚訝。
最近的一則來自美國的一家雲初創公司 CoreWeave 。
這家公司宣佈融資23億美金,而更讓人震驚的是這筆錢的抵押物是其擁有的GPU。在大模型熱潮下,GPU儼然成為一種硬通貨,而CoreWeave之所以能有如此多的英偉達稀缺物品,是因為它過去的身份——北美最大的以太坊礦工。
那時它有超過五萬臺GPU用來挖礦,在面對挖礦的不可持續性後,CoreWeave把目光轉向AI等需要平行計算的領域,並在 ChatGPT 爆紅之前就採購了大量英偉達晶片——那時晶片的產能還足夠充分。
由此,CoreWeave自稱是世界上唯一一個可以大規模提供H100算力的公司,也搖身一變成為了一家“雲廠商”。

是的,它的GPU供給超越了所有云服務巨頭,包括谷歌雲、亞馬遜雲和微軟的Azure。
這聽上去有些奇特,即使是不談GPU數量瓶頸,構建資料中心還需要巨量的成本,精巧的空間、能源和散熱設計以及十分複雜的軟硬體協同,一般來說,能滿足這些條件的只能是巨頭,而不是剛進行了B輪融資(4.21億美元)的初創公司。
CoreWeave 能做到這一點,源於一種對資料中心截然不同的理解。
傳統的資料中心由CPU構成,它們側重於通用計算的能力,主要由最開始是英特爾,後來是AMD的晶片所壟斷。
但全新的用於加速計算的資料中心則更強調平行計算,這就意味著它需要有更大的記憶體、頻寬以及把所有的加速計算單元密切連線起來的能力,英偉達創始人和CEO黃仁勳稱這個過程為“資料中心現代化”,在他看來這是一個將持續10年的週期。
這個新週期的開始預示著整個資料中心的建構方式,軟硬體協同乃至電源和散熱結構都需要重新設計。這讓所有的雲服務提供商幾乎重回起跑線——針對 CPU 設計的上一代的資料中心方案几乎完全無法照搬。比如英偉達連線龐大GPU叢集所用到的 Infinite Band 技術需要超過500英里的電纜,這在傳統的資料中心設計中根本不存在。
CoreWeave舉了另一個例子,相同場地大小,GPU 叢集所需要的電力是傳統資料中心的 4 倍,因此新資料中心的電力系統和散熱系統都需要完全重新設計,這甚至還不算軟硬體協同的成本。
搶佔先機的CoreWeave由此不僅能提供龐大的H100算力,並且在比其它的雲服務快幾十倍的同時費用還低80%,能做到這些,我們可以將其歸功於它很早就精準踐行了黃仁勳有關資料中心的願景——資料中心正在向加速計算方向轉化,而緊缺的算力則透過雲供應。
就這樣,一家虛擬幣挖礦公司就變成了一家當紅的雲計算公司,只因為它是最忠誠的英偉達門徒。

英偉達雲是個什麼雲
誰有英偉達的GPU誰就是最紅的雲廠商,那麼誰有最多的英偉達GPU?顯然是它自己。
於是在扶持類似的雲初創企業的同時,英偉達也在建設自己的雲。
英偉達親自下場做雲的優勢有很多,最明顯的是它不受到GPU供需關係的困擾。馬斯克曾在公開場合說,獲得GPU比獲得毒品要難多了,而CoreWeave之所以能提供超大規模的 H100 算力,據悉也和英偉達的充分供應有關——英偉達在幾個月前參與了CoreWeave的 B 輪融資。
但顯然,僅僅投一些初創公司還不夠,生成式 AI 對算力的巨大需求最終讓英偉達自己下場。在今年3月的GTC大會上,英偉達推出了自己的雲服務DGX Cloud ,它已在年中正式上線。
從名字就可以看出,DGX Cloud 直接利用了英偉達DGX超級計算機的能力,雲的每個例項均配備8個H100或A100 GPU以及640GB記憶體。
DGX Cloud 採用了一種低延遲結構,讓龐大的工作流可以在叢集之間擴充套件,於多個計算節點上並行分配。舉個例子來說,最先宣佈與DGX Cloud合作的甲骨文,它在OCI Supercluster上每個叢集可以部署超過3萬個A100 GPU,由此大模型可以在雲上進行訓練。使用者在任何地方都能自由訪問屬於自己的 AI 超級計算機(英偉達表示算力的分配是獨享排他的),打交道的只有前臺介面,除了開發過程本身不用再去擔心任何和硬體基礎設施有關的問題。
這項服務採用月租形式,金額高達近 4 萬美元。當然,相比直接買一臺 DGX 伺服器 20 萬美元的價格來說還是便宜了許多,但不少人都指出,微軟的 Azure 同樣 8 個 A100GPU 的收費只有不到 2 萬美元,幾乎是前者的一半。
為什麼這麼貴?因為英偉達的雲服務和別家不同,它不僅包括算力,還包括一整套 AI 解決方案。
名為Base Command Platform(基礎命令平臺)和 AI Enterprise 的兩項服務被整合到了DGX Cloud裡。前者是一個管理與監控軟體,不僅可以用來記錄雲端算力的訓練負載,提供跨雲端和本地算力的整合,還能讓使用者直接從瀏覽器訪問 DGX Cloud。後者則是英偉達 AI 平臺中的軟體層,高達數千個軟體包提供了各種預訓練模型、AI 框架和加速庫,從而簡化端到端的 AI 開發和部署成本。除此之外,DGX Cloud 上還提供名為 AI Foundations 的模型鑄造服務,讓企業使用者可以使用自己的專有資料定製屬於自己的垂直大模型。
這套軟硬體組合起來的完整解決方案讓 DGX Cloud 訓練速度相比傳統的雲計算提高了兩到三倍,這成為了DGX Cloud與傳統雲服務最大的不同,它很好的綜合了英偉達兩方面的強項:AI 生態和算力。對於英偉達來說,“軟體即服務”這句話似乎應該改成“軟硬體一體即服務”,DGX Cloud 集中代表了一個硬體廠商向上垂直整合的能力天花板。

黃仁勳的野心和現實
但這並不意味著英偉達就徹底掀了傳統雲廠商的桌子。它的這項服務是透過傳統雲廠商來提供的。DGX Cloud 最開始被宣佈推出在甲骨文雲上,隨後微軟和谷歌跟進,而英偉達與這些雲廠商合作的方式顯得頗為有趣:英偉達先把 GPU硬體賣給這些雲合作伙伴,然後再租用這些硬體以便執行DGX Cloud。
有人戲稱這叫兩邊錢一起賺,都不耽誤。
實際上,黃仁勳解釋過這種模式:“我們從讓客戶使用我們的計算平臺中受益,而客戶透過將我們(的計算平臺)置於他們(雲廠商)的雲中而受益。”
如果只聽黃仁勳說,這就是個皆大歡喜的雙贏結局,然而這只是他一貫的敘事而已。英偉達已經陷入與自己客戶的競爭中,並且心知肚明。
DGX Cloud 進展告訴我們,黃仁勳並不打算僅僅把它佈置於傳統雲廠商上。在八月的 SIGGRAPH 2023上,英偉達先是宣佈了與 Hugging Face 的合作,接著釋出了名為AI Workbench的服務。它們都可以讓使用者便捷建立、測試和定製預訓大模型,其背後的算力支援自然都包括了 DGX Cloud。
這顯然會衝擊英偉達和雲廠商的關係:最主要的雲服務商,包括谷歌、亞馬遜和微軟,它們同樣也是英偉達的大客戶,英偉達推廣自有云服務勢必會搶奪它們的市場份額。特別是我們在第一部分已經談到,作為資料中心和雲服務巨頭的它們在構建下一代資料中心的問題上本來就不具備多少優勢,如果再考慮到英偉達晶片產能“卡脖子”的問題,英偉達的自有云服務威脅不可謂不小。
黃仁勳不會不知道這一點,因此他對DGX Cloud 的態度就顯得頗值得玩味了,比如他公開表示,一個恰當的雲服務組合比例應該是10%英偉達DGX加上90%的公有云。換而言之,DGX Cloud 在黃仁勳的定位裡並不是傳統雲廠商的對手與威脅,而是合作伙伴。
在 Q1 季度財報公佈後的分析師電話會上黃仁勳談的更多的都是這種合作的好處,“一個巨大的雙贏”,黃仁勳如此形容。在他的理解裡,DGX Cloud 是一個純粹的英偉達堆疊(pure Nvidia stack),把人工智慧開發、大型資料庫和高速低延遲網路組合在一起,成為一種便捷的AI 基礎設施從而開啟全新的、巨大的市場——這個市場的參與者包括了英偉達和傳統雲廠商,大家將共同受益於生成式 AI 的爆發。
極力避談衝突,其實是因為,DGX Cloud 恐怕很長時間內都只能維持一個較小的體量。
第一個原因當然是算力的瓶頸。“訂單多到不可思議”是黃仁勳形容資料中心業務量時的描述,英偉達的核心要務當然是開發並保證生產儘可能多的符合市場需求的先進晶片,否則雲服務的規模是無法擴大的。
儘管臺積電在馬不停蹄的生產,但值得注意的是算力缺口不是變小而是更大了,因為一旦大模型落地和商業化(比如像ChatGPT那樣),其推理成本將隨著使用者規模的提升指數級升高,長遠來看會比訓練模型的算力需求大得多(有人給出的倍率是 100)。
此外也是考慮到英偉達和傳統雲廠商合作關係的複雜性。DGX Cloud如果作為一種純粹的競品出現,或許會佔領可觀的市場份額,但勢必進一步加速雲廠商擺脫對英偉達的依賴——它們本來就已經為了少交點“英偉達稅”而不約而同地自研晶片了。
從另一個角度講,全力擴大 DGX Cloud 規模可能也不符合英偉達的最佳利益。從晶片到遊戲顯示卡再到伺服器和資料中心,英偉達絕少自己製造硬體產品,它更喜歡和OEM 廠商合作——以至於許多時候你要採購英偉達晶片都還是得經過 OEM 廠商。這讓英偉達很好的控制成本,維持利潤率。
今天英偉達和雲廠商之間似乎維持了一種平衡,但平衡就是用來打破的,尤其當一方是英偉達的時候,畢竟眼下才是黃仁勳所謂“下一代資料中心十年”更新週期的第一年。

一場聚集人工智慧產業頭部公司與頂級資本的對話
點選下方圖片即可報名參加活動

品玩招聘作者,資深作者及編輯,並長期開放實習生招聘。
世界不平靜,我們希望在變動的技術週期和商業週期裡繼續我們的探索,不熄滅眼裡的光。
為了和更多個優秀的你一起記錄和改變這個激動人心的時代,做更多有價值的報道,品玩現開放招聘。
崗位資訊:全職:4人。實習生長期招聘。工作地點:北京。
一句話總結我們在招聘的崗位的工作內容,就是:
報道最重要的商業和技術新聞,並抽絲剝繭地解釋給讀者它們為什麼重要。
一些共同的崗位要求:
1. 尊重常識。
2.對好內容有感知,有選題發明能力。
3.掌握快速搜尋梳理資訊的方法,有較強的文獻閱讀能力,能獨立拓展相關資源。
4 英文流利。有閱讀英文內容的習慣,可以用英文完成溝通。
5.對真實世界有感知,心智成熟,有職業精神,溝通介面良好穩定。
在招崗位:
-新經濟作者、新技術作者
新經濟作者負責報道網際網路商業領域最新動態;新技術作者負責報道新技術領域(AI,晶片,機器人等)最新動態;
追蹤錢的流動,人的變化,商業世界的競爭與合作以及科技的變革,並把它們講述給我們的讀者;
不限工作經驗,不限專業背景,我們歡迎不同背景的候選人。
-資深作者/編輯
對網際網路商業領域或新技術領域有自己的研究和積累;
有自己獲取資訊的方法體系,有持續學習的能力;
能發明選題,撰寫深度文章,同時也可以輔導初級作者。
長期招募實習生
我們為實習生提供與全職同樣的指導與工作支援,並提供留用機會。
或者,以上的描述都不能定義你,但你認為你是我們需要的那個人,也可以發郵件給我們,介紹你自己。
以上崗位應聘者,請將簡歷及作品傳送至:[email protected] 。(請標明應聘崗位)
同時,我們也在招聘其他崗位:
運營部門
崗位資訊:全職:3人。實習生長期招聘。工作地點:北京。
內容運營
能夠敏銳的捕捉網際網路熱點,並將其轉化為出色的內容;
富有創新意識和強烈的主觀能動性,重視流量在工作中的重要性;
有自己獨特的資料分析方法論,能發現龐雜資料中的關鍵點,並反哺內容創作。
影片運營
具備影片的全流程的創作能力;
對各個內容平臺均有深刻理解,能抓住平臺規則紅利;
有自己獨特的資料分析方法論,能發現龐雜資料中的關鍵點,並反哺內容創作。
社群運營
有過國內外成熟知名社群的運營經驗;
能夠獨立承擔運營策略、節奏設計,結合運營目標、節點資源等因素制定精細化的社群運營規劃;
對UGC的熱點、流行趨勢、話語體系有充分理解,能夠透過創意、熱點玩法、活動策劃激發UGC參與。
長期招募實習生
我們為實習生提供與全職同樣的指導與工作支援,並提供留用機會。
運營崗位應聘者,請將簡歷及作品傳送至:[email protected] 。(請標明應聘崗位)
商務部門
銷售總監/高階銷售經理
崗位職責:
1. 負責品玩線上廣告、線下活動類、品牌營銷、市場公關、以及定製方案的商務拓展與銷售工作,透過對目標行業客戶的銷售完成指定收入目標;
2. 對目標行業客戶進行研究、識別、接洽、需求、分析、產品演示、方案規劃、談判與簽約;
3. 管理與維護指定客戶(包括新客戶與現有客戶),提供優秀的售前與售後服務,建立長期、穩定的合作關係,對客戶產品和需求進行持續性的研究與開發;
4. 與各部門保持緊密合作,回饋客戶需求與最新行業動向,協助最佳化產品與服務;
5. 積極參加行業商務與社交活動,拓展人脈資源,持續瞭解與提升行業知識和洞察力
任職要求:
1. 網際網路銷售經驗2年以上,銷售經驗5年以上優先;
2. 做事嚴謹、細心,較強的溝通協調能力;
3. 有市場營銷、品牌方或者市場公關乙方工作經歷優先;
4. 自我驅動,有很強的學習行業知識及專業知識的能力;
5. 具備應變能力,團隊協作能力,能適應多工處理及工作壓力;
6. 擁有intel、華為、華為雲、阿里、阿里雲、高通等網際網路行業直客資源者優先。
更多招聘資訊,可以進入官網招聘頁面獲取。
期待品玩有你的加入。


· 文章版權歸品玩所有,未經授權不得轉載。
· 您亦可在微博、知乎、今日頭條、百家號上關注我們。

關鍵詞
英偉達
黃仁勳
算力
雲服務
資料中心