DeepSeek蝴蝶振翅,會掀起AI出海的狂風巨浪嗎?|《極客有約》AI出海特別篇

最近兩個月,DeepSeek 憑藉創新的 MoE 混合專家模型架構,在模型效能與訓練成本上實現了突破性進展,引爆了全球 AI 狂潮,DeepSeek 也一度成為海外最受歡迎的 AI 產品,由此引發了業內非常多關於 AI 出海的探討。
本期《極客有約》,極客邦科技創始人 &CEO 霍太穩 對話 GMI Cloud 創始人 &CEO Alex Yeh,深入探討了 GMI Cloud 在 AI 出海方面的一些探索與實踐。GMI Cloud 是一家 AI Native Cloud 服務商,為各類企業提供 AI 雲服務解決方案。去年 10 月他們完成了 8200 萬美元的融資。    

以下為經編輯整理後的訪談精華:
1 為什麼選擇擁抱這波 AI 浪潮?  
霍太穩:GMI Cloud 是一家怎樣的公司?創辦的宗旨是什麼?
Alex:GMI Cloud 是一家專注於 AI Native Cloud 的初創服務商,也就是 AI 原生服務提供商。我們給很多企業提供 AI 雲服務解決方案,去年 10 月份完成了 8200 萬美元的融資。“GMI”代表 General Machine Intelligence。我們創辦 GMI Cloud 的宗旨,就是支援任何企業、創辦人或創作者去部署 AI,把 AI 微調並規模化。不管是模型訓練、推理,還是需要應用或簡單 API,我們都能快速提供相應解決方案。
霍太穩:是在怎樣的契機下建立 GMI Cloud 的?
Alex:超過 3 年半前,我原本從事 VC 和 PE 投資。當時投了朋友的比特幣礦場,後來 2020 年 5 月因為一些原因,我面臨很大損失。當時我有兩個選擇,要麼直接承受投資損,要麼出海找解決方案,我選擇了後者。去紐約找資料中心沒人理我,我就決定自己蓋。花了兩年時間蓋了三個資料中心和礦場,在阿肯色州等地,還建了大量電力裝置和廠房建設。後來在矽谷,朋友和 VC 跟我要 GPU,我才發現需求很大,就轉型做 GPU 租賃業務。隨著和客戶接觸越來越多,發現他們做雲或 AI 專案有很多難題,像基礎設施、安全防護、人才等問題,尤其是人才問題很突出,懂 AI 軟體又懂基礎設施的人太少了。所以我們 GMI Cloud 最後就定位於幫助想做 AI 的客戶,提供他們需要的各種基礎設施,助力他們往 AGI 發展。
霍太穩:GMI Cloud 在服務上和其他提供基礎設施的企業相比,有什麼差異化?
Alex:我覺得可以從幾個層面來講。從產品角度,我們和其他雲服務公司不一樣,比如 AWS、Azure 這些大公司,他們就像蓋了很高的圍牆,希望客戶把所有東西都放在他們雲上。我們則像樂高積木,底層是 GPU 硬體,中間層是基礎設施即服務(IaaS),上層是推理和模型服務層,客戶可以按需選擇使用其中一層或多層,完全可以自己控制環境和擴充套件需求,我們不會強制客戶依賴我們的生態。
硬體層,我們是全美前十的 NCP(NVIDIA Cloud Partner),在全球各個點都有自己的 GPU;IaaS 層,我們能控制到 BIOS level 的 GPU 基礎設施,從 CPU、GPU、Memory、RAM,甚至包括溫控,以及整個容器開什麼埠,這些我們都能控制,而且很酷的地方是我們的 IaaS 層是完全可以獨立出去的,就好比是說它是一個 Windows 的作業系統,所以你不需要買我的 GPU,你可以把這個作業系統放在你自己的叢集上面使用;推理和模型服務層,我們可以直接為客戶提供 API 或模型服務。比如最近有些客戶說我只需要一個 API,例如 DeepSeek 或者 Open Sora 的端點,那我就直接提供 API 給你,或是開個端點給你。很多大型企業沒辦法像我們這樣靈活,且最佳化起來也很痛苦。
另外,在人才和區域優勢方面,除了像 BAT、火山這些大型雲廠商外,我們應該算是做雲服務比較好的新創公司。我們有中美頂尖的人才,Google X、阿里、IBM、Intel、Red Hat 的原廠工程師都有。在亞太我們有很多節點,總公司在矽谷,所以能得到全球很多客戶的支援。而像 Lambda 等一些公司,他們客群基本都在美國,對於中國出海或亞洲公司來說,和他們合作很難建立信任關係,且他們在亞洲沒有叢集,這方面我們比他們有優勢。還有就是當前比較特殊的全球局勢,也讓我們這樣以矽谷為中心的華人公司有了生存空間。
2 DeepSeek 引發的蝴蝶效應  
霍太穩:DeepSeek 推動的輕量化、低成本技術路線,對產品商業化和 AI 基礎設施構建有什麼影響?
Alex:我覺得這是個革命性的事情。在美國這邊,很多人說這是國際關係之間的較量,但我覺得這本質上是開源和閉源的較量,DeepSeek 讓開源模型超越了閉源模型,這是值得關注的重點。
對於客戶來說,分為企業型使用者和新創公司。新創公司最需要的就是“快”,比如 OpenAI 的 Sora,剛推出時很驚豔,但 6 個月後競爭就很激烈了。對新創公司或任何企業而言,都是先要有產品,再去追求完美。新創公司永遠追求快和好,我們提供一整套服務,能讓他們快速使用。輕量化很重要,特別是因為它是開源的。
對於企業使用者,像美國很多世界 500 強公司,他們想做一些和大模型相關的事情,比如把 PDF 塞進大模型,想法簡單但實現起來很難,涉及基礎建設、Scaling(Law)、隱私和許可權管理等問題。所以我們儘量提供不同模組讓他們自己選擇去使用。其實 DeepSeek 和我們的初衷一樣——能讓客戶完全控制環境。以前大家選擇模型,比較好的基本是 OpenAI、Anthropic 這些閉源的,不僅要交 API 費用,資料還會流向這些公司,新創公司可能無所謂,能用就行,但大企業肯定不行,像銀行、保險公司就不能接受。有了開源的 DeepSeek,企業可以把它移到自己伺服器上,放在本地或自己的雲上面都可以,環境和模型位置都能自己掌控。所以,DeepSeek 對開源模型發展是個很大的推動,能讓大小公司都能完全控制自己的模型和未來產品走向。
霍太穩:面對類似 DeepSeek 這樣因火爆導致的伺服器繁忙、API 服務暫停等問題,以及 AI 基礎設施在應對海量訪問和市場競爭時的挑戰,GMI Cloud 有哪些解決辦法?
Alex:我覺得新創公司在這種情況下,最重要的就是速度。有像發現了 DeepSeek 這麼好的武器,就要趕緊拿起來做出產品賣給客戶。比如美國的 Mistral 和 Cursor,把開源和閉源模型結合,做了自己的 UI/UX,四個月就達到 100 萬億美金的 AR,就是快速規模化的例子。不要想著自己蓋機房、摳成本,要找穩定可靠的算力服務商一起成長,根據業務需求隨時調整。
除了速度,穩定性也很關鍵。在硬體方面,前面也提到了我們是全球前十的 NCP,每兩週會和 Nvidia 的工程部探討新一代 GPU 硬體和軟體架構,以及遇到的各種問題,他們會幫我們解決。而且我們自己對伺服器有 8 層 QC(質量檢查)過程,從 CPU 效能、GPU、記憶體到網路等都要檢查,還要做壓力測試,拿 LLAMA3 跑 GPU 測試,在交付給客戶前確保機器質量,哪怕 OEM 說機器沒問題,我們也都會自己測試完確認質量後再交給客戶。
關於速度和穩定,還有一個建議就是一定是要找到專業的團隊 ,讓你去節省工程師去除錯基礎設施的時間,把更多精力集中在 build 這個應用上,這很重要。你想象一下,假設一個訓練進行了五六天,突然斷掉了。一個禮拜的訓練結果全部不見了,工程師真的會瘋掉。所以最終還是需要穩定,還有速度,我覺得這兩個是缺一不可的事情。
另外在容錯方面,我們測試 OK 的機器交付給客戶後,也可能出現各種突發問題,進而影響算力良率。所以我們會在客戶租用機器數量基礎上多準備幾臺,比如客戶租 100 臺,我們準備 103 臺或 105 臺,有機器壞了馬上替換,保證客戶整包算力穩定,讓客戶感覺不到機器有問題等等。
霍太穩:GMI Cloud 的典型客戶希望你們幫助解決哪些問題?
Alex:我們的客戶主要分三類,其實就是對應我前面說的三層。
第一類是大模型公司,他們就是來訓練模型的,不管是影片模型、語言模型還是多模態模型。對他們來說,我們只要保證叢集穩定就行,因為他們技術很強,比我們大數倍甚至數百倍。
第二類客戶是有一定技術能力,但沒有基礎設施運維團隊的公司。一般公司大多隻有前端、後端人員,很少有懂網路這些基礎設施的人。我們給這類客戶提供容器選項,讓他們能方便地進行模型微調(fine tune)和推理(inference)。另外他們還需要很多不同服務,像不同的機器學習框架,模型訓練好或調整好後要推廣,客戶可能分佈在全球,就需要全球推理服務。比如他們自己做的話,如果叢集設在美國中部,歐洲或亞洲客戶訪問延遲可能很高,像做遊戲就根本不行。我們會根據客戶需求,提供全球不同節點的服務,讓客戶的延遲控制在一定範圍內,並且能自動擴容延展,就像一個超大型的 model CDN 網路,自動幫他們切換到對應資料中心,保證服務質量。
第三類是傳統非 AI 公司,他們有成熟產品,想匯入 AI,但不知道怎麼執行,我們就給他們提供模型讓他們使用。
霍太穩:GMI Cloud 的定價策略是怎樣的?/ 如果客戶想試用,有相關渠道嗎?
Alex:我們 GMI Cloud 是以美國定價,因為成本差異很大,特別是 GPU 所在位置對成本影響很大。而且我們在國內沒辦法提供叢集,因為涉及 Nvidia 提供商的一些法律問題,我們只能給客戶提供海外的服務。雖然定價基於美國,但我們能保證服務的可靠性、提供不同地點的選擇,還有服務速度。
對於想要試用的客戶,我們有 POC(概念驗證)服務。現在 DeepSeek 很火,我們推出了基於 H200 的滿血版的 R1 API 和端點,做了深度最佳化,好用的同時,價格還與業界相當。如果有夥伴需要可以聯絡我們,一個月後我們還會提供自助服務選項,想試用的小夥伴到時候就可以開始使用我們的產品了。
3 全球化競爭中不可忽視的生存法則  
霍太穩:如何看待當下的出海熱,AI 應用出海在基礎設施和商業模式上面臨哪些挑戰,又有什麼解決方案?
Alex:我覺得出海要先看自己的優勢。就像在美國,你要申請好的大學,你肯定不要去跟別人拼游泳、拼跑步,肯定得拿個工具,比如拿個乒乓或者羽毛球拍子,就厲害了。所以得找自己的優勢點。我覺得 中國非常厲害的一點就在於硬體的供應鏈上,深圳做的東西又好又便宜。另一點則是營銷,中國 2C 端做得非常好,像抖音、小紅書比美國的 Instagram 強太多了,差不多超越兩代以上。
在 AI 互動方面,未來幾年硬體互動會有很大改變,比如視覺方面的 AR、VR 眼鏡,聲音方面的耳機,還有機器人等等,和大模型、語音轉文字模型結合一下,就能做出很好的產品。中國企業可以做這些結合 AI 元件的硬體產品,透過營銷推向 2C 市場。特別是美國市場,他們在這方面接受度很高。當然,做 SaaS 化產品也可以,像簡單的會議紀要軟體,沒什麼技術難度,靠打品牌、擴大規模,你跟每個客戶說每個月收 10 美金或者 5 美金,對他們而言其實不痛不癢,但盈利空間也非常大。
當然,如果你的產品突然火了,也可能會遇到像 DeepSeek 那樣的算力不足、伺服器最佳化和網路架構升級等問題,所以從一開始,在基礎設施的構建和選擇上,尋找穩定可靠的算力服務商合作會更好。
霍太穩:在 AI 全球化競爭中,技術突破、商業場景、生態建設這三個關鍵點,對於企業來說優先順序是怎樣的?
Alex:這得看公司做的產品和麵向的客戶。對於生態建設,它更適合大公司和模型構建者,比如做遊戲大模型的公司,需要很多開發者在平臺上開發,就像 DeepSeek 靠技術驅動建立生態,但技術只是切入點,最後還是要開發生態。
很多小公司,生態建設不是首選。小公司首先要有商業邏輯,瞭解客戶需求,雖然也可以做技術突破,但不是像 DeepSeek 那樣燒錢搞研發。小公司可以利用現有的成熟模型,比如 OpenAI、阿里的千問等等,在上面做 UI/UX 模組,根據客戶問題選擇合適的模型。對於小公司來說,生態建設應該放在第三步,因為生態是建立在有好產品的基礎上,小公司得先活下來。所以對大部分公司來說,更好的做法是先了解客戶需求,做出好產品。
對於 新創公司,先滿足客戶需求最重要,不用急著談技術突破,因為大廠可能已經提供了相應技術,也不用談生態建設。等公司發展到一定規模,最好有自己的技術含量,尋求商業場景突破,生態建設可以放在後面。
而對於大公司或巨型公司,很多客戶已經在使用他們的產品,商業場景已經有了,技術也有一定基礎,這時候生態建設可以放在首位,投入資源做技術突破,進一步拓展商業場景。
霍太穩:國外在 AI 生態合作上有什麼特點,中國出海企業做生態合作需要做哪些儲備?
Alex:國外在 AI 生態合作上,大多是根據自身需求,有什麼資源就用什麼資源。比如需要基礎設施、資料標註、接入不同模型等,就找專業的公司合作,把這些資源拼起來,先找到產品市場契合度,再擴大規模建立生態。
中國出海企業不要想著什麼都自己做,要找專業的公司做專業的事。先專注打造自己的核心產品,快速找到產品與市場的契合點,再逐步擴大規模、建立生態。
霍太穩:用一句話給中國 AI 出海團隊提建議,最不可忽視的生存法則是什麼?
Alex:一句話概括就是“Focus on building your product”,專注打造你的產品。深入瞭解客戶需求,做出能精準解決客戶痛點的產品就行,哪怕只解決一個痛點。同時要充分利用周圍資源,不要想著什麼都自己做,以最快速度實現產品市場契合,安全且快速地達到目標。
嘉賓介紹
更多關於 GMI Cloud 的內容,請戳👉https://c.aiiz.cn/atVByf(InfoQ 獨家對話 GMI Cloud 創始人:我看到的 GPU 雲市場的現在和未來)
※ GMI Cloud限時開放驚喜福利,掃描下方二維碼or戳👇閱讀原文立即參與。

相關文章