
2025 年 6 月 23 日,由 GMI Cloud 聯合 InfoQ 舉辦的 “2025 AI 應用出海年中洞察暨 GMI Cloud 新品釋出會” 在線上舉行。InfoQ 總編輯王一鵬與 GMI Cloud 創始人 &CEO Alex、解決方案架構師 Frank、技術 VP Yujing,圍繞 AI 應用出海的市場格局、技術挑戰、產品創新及行業趨勢展開多維對話,助力從業者精準洞察 AI 技術演進脈絡與出海市場的政策 & 文化差異、競爭格局等,從而更加敏銳地把握 AI 應用出海的關鍵機遇點與潛在風險。
值得一提的是,GMI Cloud 也在線上釋出了全新的推理引擎 Benchmark 調優平臺,並展示了 GMI Cloud 的技術全景圖,全面賦能 AI 應用出海。
以下為此次直播內容精要。
直播開場,GMI Cloud 解決方案架構師 Frank 率先公佈了一組資料:“截至 2025 年 5 月,月活超過 5 萬的 AI 出海應用已突破 160 款,較去年同期實現了 5 倍的爆發式增長,僅 2025 年上半年,每月新增達標應用數量穩定在 10 – 15 款。” 這一資料不僅是 AI 技術商業化程序加速的實況呈現,也反映了當前全球市場對 AI 應用的旺盛需求。
Frank 指出,從應用型別分佈來看,檢視類應用佔據半壁江山,成為出海先鋒。影片生成、圖片編輯、影像處理等工具類產品憑藉直觀的使用者體驗和高頻使用場景,快速開啟全球市場。語言模型應用緊隨其後,佔比達 45%,其中 AI Agent 類工具成為增長新引擎。教育輔助、程式碼生成、智慧問答等垂直領域的 Agent 應用,透過解決特定場景的痛點,展現出強大的商業潛力。
商業模式層面,訂閱製成為出海類 AI 應用的主流選擇。Frank 表示:“當前 AI 出海應用大多采用工具化定位 + 訂閱付費模式,這種模式的核心在於持續為使用者創造價值 —— 要麼顯著提升效率,要麼開闢全新的創作可能,以此驅動使用者的長期付費意願。” 在北美市場,使用者對新技術的高接受度和強付費能力,使得訂閱制模式得以充分驗證。
亞太與北美市場構成了 AI 應用出海的核心戰場,但兩大區域呈現出截然不同的市場特性。
在亞太地區,東南亞憑藉龐大的人口基數和快速增長的數字經濟,成為使用者獲取的 “主陣地”。印度尼西亞、越南等國家的年輕使用者群體對新鮮事物充滿熱情,推動了 AI 應用的快速普及。“可能很多不太關注出海的觀眾覺得東南亞的上雲率比較低, 但是實際上最近幾年各大國際雲廠商,包括國內的雲大廠,在東南亞特別是新加坡和馬來都建了可用區。所以東南亞在 AI、雲基礎設施還是不錯的,中企出海選擇東南亞也有一定的便利性。”Frank 補充道。
此外,亞太地區有一個比較特別的市場——日本,“日本的使用者付費意願比較高,很多的 AI 出海企業在亞太佈局的話,會首選日本。”Frank 解釋道。
跟日本市場一樣,北美地區以 “技術接受度高 + 付費能力強” 的雙重優勢,成為驗證商業模式的理想之地。儘管傳統觀點認為北美市場準入門檻高,但在 AI 領域,中國企業憑藉強大的產品迭代能力和對使用者需求的敏銳洞察,成功打破壁壘。Frank 分享道:“我們服務的客戶中,有很多將北美作為出海首站。這裡的使用者不僅願意為創新技術買單,還能透過積極反饋推動產品快速迭代,形成良性迴圈。”
除了基礎設施和使用者習慣差異外,文化差異、地域合規性也是 AI 應用出海必須面臨的挑戰。針對這類問題,Fank 表示:“在服務層面,我們整合了全球合規服務商資源,為客戶提供主體註冊、法規諮詢、稅務籌劃等一站式服務;在技術層面,我們透過本地化資料儲存和多層安全防護等措施,來幫助客戶確保資料的合規性、安全性。”
在競爭激烈的 AI 應用紅海之外,多個細分賽道正孕育著爆發式增長的可能,Frank 重點剖析了三大潛力領域。
首先是影片生成賽道。儘管當前的市場熱度已然不低,但技術迭代仍在加速。以 “可靈 2.1 版本” 為例,其憑藉高精度的畫面生成能力和流暢的動態表現,已被好萊塢影視工作室用於特效製作,以及全球廣告公司的創意短片生成。隨著模型精度的持續提升和成本的下降,影片生成有望重塑內容生產行業。Frank 表示,像《哪吒》這樣的動畫電影,它的整體渲染成本大概是 3-4 億人民幣。如果去用模型去生成的話,假設生成的質量需要達到《哪吒》的百分之七八十,成本可能也就是三四十萬,這將極大地降低影視製作的成本。
其次是 3D 生成賽道。與遊戲、動漫、手辦等領域的深度融合,為 3D 生成技術開闢了廣闊的應用空間。遊戲公司透過 AI 3D 生成技術,能夠大幅縮短角色建模時間,提升內容更新速度;在動漫領域,AI 生成的 3D 虛擬偶像不僅形象逼真,還能透過即時互動吸引粉絲;手辦 IP 行業更是藉助 AI 技術,實現了從設計到生產的全流程數字化,滿足了使用者個性化定製的需求。
此外,崑崙萬維在東南亞市場的成功實踐,證明了音樂生成領域的巨大潛力。其推出的 AI 音樂生成應用,支援使用者透過文字描述生成個性化音樂作品。該應用上線半年內,使用者創作的歌曲中有 10 首進入了當地流行音樂排行榜前 100,引發了廣泛關注。
從 AI 應用出海的市場全景不難發現,無論是 C 端應用的爆發式增長背後對算力排程的海量需求,還是區域市場差異化競爭中對本地化部署的嚴苛要求,亦或是更多潛力賽道技術突破所依賴的模型推理最佳化能力,都對底層技術架構與基礎設施提出了多維度的挑戰。同時也對 AI Infra 廠商提出了新的要求——技術創新不再是單一的功能迭代,而是需要與市場需求形成精準共振的系統性工程。而這也正是 GMI Cloud 技術演進的關鍵方向。
從算力排程到推理最佳化的
全棧突破與工程突圍
2025 年,隨著 MCP 協議的廣泛應用,Agent 生態迎來爆發式增長。這一協議如同大模型領域的 “Type-C 介面”,透過統一標準大幅降低了 Agent 開發部署門檻。在此背景下,應用端從通用 Agent 向行業垂直 Agent 的演進,對模型後訓練和推理最佳化提出了雙重挑戰 —— 既要實現跨區域算力的動態排程,又要保障複雜業務場景下的推理效率。
針對這一行業痛點,GMI Cloud 以兩大產品構建解決方案:
首先是 Cluster Engine 平臺。作為多雲管理中樞,Cluster Engine 實現了跨區域 GPU 叢集的統一納管與智慧排程。該平臺支援北美、亞太、歐洲等多個地區的算力資源整合,透過動態負載均衡演算法,將任務分配至最合適的算力節點。例如,在處理突發流量時,Cluster Engine 可在分鐘級內完成算力擴容,確保服務不中斷。
其次是 Inference Engine 平臺。作為 GMI Cloud 全棧自研的推理引擎平臺, Inference Engine 透過軟硬體的協同最佳化以及全球動態負載均衡,可以實現 AI 推理效能的大幅提升以及彈性擴縮容。
GMI Cloud 技術 VP Yujing 在直播中表示, Inference Engine 核心優勢主要體現在兩個方面。一方面,它可以讓企業以及使用者進行快速部署,選擇好模型後即刻擴充套件,幾分鐘之後就可以啟動模型,並直接用這個模型進行 serving;另一方面,因為 GMI Cloud 擁有全棧的能力,所以對 Inference Engine 從硬體到軟體進行了端到端的最佳化,確保其具備最佳的推理效能以及最低的成本,最大限度地幫助客戶提升大規模工作時的負載速度以及頻寬。

值得一提的是,近期 Inference Engine 也上線了影片功能,GMI Cloud 希望將它打造成一個整合多個開源、閉源模型的影片生成平臺,也歡迎大家去體驗。
在直播中,GMI Cloud 技術 VP Yujing 宣佈 Inference Engine Benchmark 調優平臺正式釋出,並對其核心功能進行了重點介紹。
據介紹,Benchmark 調優平臺具備三大核心亮點:
1. 雙版本架構:
-
開源社群版:與 vllm 社群合作開發,雙方充分發揮自身優勢,透過技術與資源整合,面向技術愛好者和小型團隊,支援 vLLM、SGLang、Ollama 等主流推理引擎的單機基準測試。使用者可透過簡單的命令列操作,快速測試模型效能,並與社群其他使用者分享測試結果。
-
雲版本:針對企業級使用者,提供生產級推理方式的叢集部署評估。平臺對 vLLM 生產棧、SGLang 多節點部署、NVIDIA Dynamo 等技術進行深度最佳化,確保測試結果與生產環境高度一致。

2. 全流程自動化:
-
按需引擎管理:平臺無需使用者提前租用 GPU 資源,可根據測試需求動態分配算力,大幅降低企業的測試成本。
-
智慧引數搜尋:內建的 “smart-perf” 元件能夠利用歷史測試資料和機器學習演算法,自動搜尋最佳配置引數,效率提升 10 倍以上。
-
端到端指標採集:自動收集吞吐量、延遲、成本等關鍵指標,並支援 Grafana 視覺化分析,幫助企業快速定位效能瓶頸。
3. 所測即所得:每個 Benchmark 測試得到的最優配置,均可在 GMI Cloud 平臺一鍵部署,確保測試效能在生產環境中 1:1 復現。此外,平臺還推出了社群版排行榜(iearena.org),鼓勵開源社群共同參與推理效能最佳化。
針對“為什麼會推出 Benchmark 調優平臺”,Yujing 解釋道:“在與客戶的溝通中,我們發現企業在模型部署過程中常面臨諸多困惑,如‘從 A100 遷移到 H100 需要多少張卡?’‘精度降低對成本有何影響?’過去,這些問題需要工程師手動測試數週甚至數月。因為我們已經積攢了大量的 know-how,所以可以把這些問題以自動化的方式解決了,也就催生出了 Benchmark 平臺。”
談及 Benchmark 調優平臺接下來的技術路線,Yujing 表示接下來會重點增加多例項、多節點的支援,比如增加更多的新模型、提供更多 EP 條件下的一些 Benchmark 能力等等;另外也在計劃針對不同模型推薦最佳的 QPS 區間,並基於實際呼叫軌跡來進行模擬;此外,Benchmark 還將增加即時 GPU 監控儀表盤、多選報告與可分享連結等功能等。目前 Benchmark 調優平臺最新版本已經開源,歡迎大家訪問 GMI Cloud 的官網去體驗。

透過 Cluster Engine、Inference Engine 及其 Benchmark 調優平臺的產品特性不難看出,“快速部署”、“極致最佳化”、“行業 know-how”、“節省成本”、“工程級復現”、“全棧能力”等等關鍵詞,正是 GMI Cloud 系統性、工程級技術與服務能力的體現。而隨著加入 NVIDIA Reference Platform Partner 陣營(全球僅 6 家, 專注於提供基於 NCP 參考架構的 AI 加速服務),將進一步加速其“幫助全球 AI 團隊從算力部署到模型開發實現規模化”承諾的實現。

作為全球僅 6 家的 NVIDIA Reference Platform Partner,GMI Cloud 在算力獲取和技術合作上具有顯著優勢。
首先是最新 NVDIA 資源的優先獲取。從 H100、H200 到 B200,再到未來的 GB300/B300,GMI Cloud 始終能第一時間獲得穩定合規的 GPU 資源。這種硬體優勢確保了客戶能夠使用最先進的算力,提升應用的競爭力。
其次是與 NVDIA 建立了更深度的技術合作。“不只是 Reference Platform Partner,我們事實上也加入了 NVIDIA Exemplar Cloud 計劃,我們不只是 NVIDIA 的客戶,還可以跟他們一起圍繞下一代產品的研發展開討論,包含晶片的設計、未來的推理的計劃,以及 GPU 服務的呼叫等等,目前我們每兩週就會去跟 NVIDIA 的工程師做一次深度溝通。” GMI Cloud 創始人 & CEO Alex 在直播中透露。

目前 GMI Cloud 的產品服務可以總結為“一朵雲 +2 個引擎”,下圖為 GMI Cloud 可以提供的技術產品架構圖。最底層,GMI Cloud 提供高效能 GPU、大容量儲存系統以及高頻寬資料通道共同構成底層的 GPU 硬體架構;再往上的 IaaS 層,GMI Cloud 提供安全、容器化、虛擬化、高速儲存系統以及高效能網路等模組服務;在 MaaS 層,GMI Cloud 主要負責對多推理框架的支援、跨級群的自動擴容、推理最佳化、即時監控,以及模型託管等,主要是 Inference Engine 平臺;而在最頂端的“應用層”,包括金融、製造、客服、自動駕駛、內容生成與創作等眾多行業或場景下的 AI 應用,都可以基於 GMI Cloud 的平臺服務完成構建。

“過程中我們也遇到了一些有趣的案例,有很多客戶透過傳統大型雲廠商將大模型訓練好了,打算部署到生產環境,發現太貴了,scale 到快破產了,然後跑到我們這邊來。我們除了能給客戶非常好的模型最佳化,也能給到更高的價效比,能夠讓客戶以負擔得起的方式去延展擴容他們的服務。”Alex 補充道。
這些實踐案例,正是 AI 應用出海從“技術炫技”轉向“工程落地”的微觀縮影,也是當下行業變革的真實寫照。
當前,AI 應用出海正處於技術與市場共振的關鍵期,從 C 端應用爆發到區域市場運營,從影片生成等細分賽道突破到算力與推理技術的全棧最佳化,AI 應用出海已不僅需要行業創新,更要關注基礎設施的穩定性。GMI Cloud 以 GPU 叢集排程最佳化、推理最佳化等眾多能力構建的 AI Native Cloud 平臺,不僅為企業破解了出海過程中的算力成本、本地化適配等現實難題,更透過與 NVIDIA 等生態夥伴的深度協同,推動 AI 應用的場景實踐。

未來,隨著技術迭代與全球市場認知的深化,AI 應用出海將從 “技術輸出” 升級為 “生態共建”,而具備工程化落地能力與全球化視野的技術平臺,無疑將會是這場變革的核心驅動力。