
出品|InfoQ 《大模型領航者》
訪談主持|霍太穩,極客邦科技創始人兼 CEO
訪談嘉賓|賈揚清,Lepton AI 聯合創始人兼 CEO
作者|褚杏娟
“我們的目標是在未來幾年裡,成為 AI Cloud 領域的領導者,就像最初的 AWS、Azure、Google Cloud、阿里雲,以及 Data Cloud 領域的 Databricks 和 Snowflake。”這是在離開阿里創業一年多後,賈揚清現階段的目標。
雖然賈揚清此前否認了這次創業是因為大模型,但他承認,ChatGPT 的問世,讓 AI 成為一種更新、更大,且在某種程度上更加基礎的計算方式,而這也是他看中的機會。
“當前人工智慧對計算的需求,推動了高效能 AI 計算、異構計算及現代雲原生軟體的結合。”這是賈揚清選擇創業賽道的邏輯。在他看來,新的平臺需要有 GPU 高效能計算能力,也需要很強的雲服務,而這些都是賈揚清團隊擅長的事情。
賈揚清的經歷帶有明顯的雲和 AI 印記:自己建立過深度學習框架,又曾負責過阿里雲計算平臺。而和他一起創業的李響是 Kubernetes 底層核心資料庫 etcd 的創始人,白俊傑是神經網路標準 ONNX 創始人,並在阿里領導過全棧 AI 工程團隊。
“在這個領域,我們最大的優勢是‘見過豬跑和養過豬’。”賈揚清說道。
賈揚清選擇創業的時間,正好處於大模型逐漸標準化、但人才相對不足的節點。
在賈揚清看來,大模型會走與資料庫相似的路:標準化的底層 SQL 執行不再需要使用者自己優化了,同時資料庫 SQL 之上會建立各種 BI 工具。對應的,隨著大模型逐漸將形態收斂到幾個相對確定的設計模式上,像 Llama、Mixtral、DeepSeek,系統性最佳化不再像之前那樣困難。同樣,這個領域也會出現更偏應用的 AI 中介軟體。
但與成熟的資料庫路徑不同的是,當下 AI 領域可能過早地將程式設計模式標準化了。畢竟一些概念現在不確定、也沒共識,討論如何為實現這些演算法進行抽象顯得操之過急。
賈揚清以觀察到的 Lang Chain 為例說明了這個問題。使用者在實驗階段非常喜歡用 Lang Chain,但做定製化功能時就會自己去寫程式碼,因為 Lang Chain 的設計有時過於固化,而自己寫程式碼涉及的 prompt cash 等並不複雜。這意味著,AI 中介軟體的產品在早期獲得關注度以後,還需要進一步隨著需求進化。
回到 AI infra 賽道里,賈揚清把 Lepton AI 定義為一個既小巧又敏捷的公司,運作方式上也更偏“矽谷風”:跟矽谷的許多創業公司一樣,團隊規模不大。目前,Lepton AI 不到 20 人,主要由工程師和產品經理組成。
創業初期,賈揚清幾個創始人見投資人時,PPT 上還沒有具體的公司名字,而是寫著“new company”,賈揚清笑道,“感覺我們似乎不夠認真”。於是他們決定取一個與 AI 相關的名字,但那時與 AI 相關的名字早都被註冊了,所以他們開始想其他可用且聽起來比較專業、有科學範兒的名字。
“Lepton”本意是物理學中的輕子,一種基本粒子。電子是一種輕子,中微子是一種輕子。“這體現了我們想要做的事情:首先是為 AI 時代構建新的基礎設施,比如吳恩達教授說過,AI is the new electricity;其次是以一種輕量級、使用者友好且成本低廉的方式構建。”賈揚清還直接道,“另外,lepton.ai 的域名也正好沒有註冊,所以我們就把它買下來了。”
“我們與大模型公司在一定程度上是互補的。”Lepton AI 沒有訓練自己的大模型,而是提供大模型訓練、部署和應用時所需的基礎設施。賈揚清團隊要解決 AI infra 層的三個核心問題:快速、便宜和優質。
具體來說,提供高效能的大語言模型推理引擎,用於圖片、影片生成;其次,為了實現成本效益,建立一個多雲平臺,整合各種雲資源供應鏈,讓使用者找到價效比最高的 GPU 資源;同時,解決平臺上不同雲之間遷移和抽象化的成本問題,讓使用者可以自由互動開發;最後,提供很好的穩定性和運維服務,保障使用者體驗。
從技術層面如何實現呢?賈揚清表示團隊沒用什麼“黑科技”,而是將很多大家耳熟能詳的單點技術結合起來,從而顯著降低成本。例如,大模型處理服務收到大量請求時的動態批處理(Dynamic Batch)、用小模型預測數個 token 的預測解碼等。如何實現這些單點技術,並有機地將它們組合起來,找到速度和成本之間的平衡,是工作中的難點。
而在 AI 加速這件事上,賈揚清說道,“我比 10 年前更加樂觀。”
實際上,硬體和軟體之間的開發週期很難對齊,加上模型的多樣性,專有硬體的可程式設計性通常比通用硬體要差,因此專用硬體很難全面支援各種模型創新的需求。而隨著大語言模型架構開始標準化,異構晶片迎來新的機遇,這個市場也被啟用:最大玩家英偉達佈局 GPU;AMD 推出了與 CUDA 相容的加速器;Grok 釋出新的 AI 處理器 LPU 來挑戰 GPU……
當前企業進行大量模型訓練時通常有兩種選擇:一是自己組建一個至少 10 人的基礎設施團隊;二是選擇 AI 雲服務提供商,如 Lepton AI。
賈揚清算了這樣一筆賬:招聘人員並建立內部架構需要時間,而訓練任務涉及許多複雜問題,比如網路中斷、GPU 故障或儲存速度不足等,演算法工程師可能都沒有處理這些問題的經驗,並且這也不是他們的主要職責。這種情況下,選擇與廠商合作既可以節省人力成本,使用者也能根據自己的需求直接選擇不同的底層資源。
“很多使用者都在速度和成本之間尋求平衡,而我們可以幫助他們找到這個平衡點。”賈揚清說道。
很多人覺得做 AI infra 沒有做大模型性感,賈揚清這群人卻義無反顧投入到了這件“無聊但至關重要”的事情上。只是,做 infra 是很難向用戶講好故事的。
賈揚清也深知這一點,“如果跟客戶說我們是一家 AI 基礎設施公司,他們可能不太瞭解具體是什麼。”
為了更好地講清楚自己在做的事情,賈揚清和團隊親自下場了。
去年春節,賈揚清和公司前端負責人開發了一個瀏覽器外掛 Elmo Chat,可以為使用者迅速總結瀏覽網頁的主要內容。今年 1 月,賈揚清團隊用 500 行 Python 程式碼實現了一個大模型加持的對話式搜尋引擎 Lepton Search,甚至還引起了一場與 Perplexity 創始人的“口水戰”。
這些都是 Lepton AI 瞭解市場和使用者、做品牌建設的方式,同時也讓團隊更加了解了端到端構建應用時的效率問題和核心痛點。
“透過這些產品,我們可以展示自己在開源模型上能做的事情,以及 Lepton 平臺幫助使用者構建應用的能力。”賈揚清說道。團隊希望透過這些產品或 demo 可以在使用者中形成好的口碑,當有人需要部署大模型時就會想到 Lepton AI。
而對 Lepton AI 來說,構建這些產品的成本非常低,並且從品牌建設和做真正實用的產品角度看,這是非常高效的方式。
在推向市場的過程中,賈揚清主要關注產品質量,他會同工程師和產品經理團隊直接面向客戶,更好地打磨產品。
目前,Lepton AI 整個團隊主要在海外,所以目標客戶主要為海外企業和國內想要拓展海外市場的企業。得益於雲架構的成熟和標準化,Lepton AI 支援在全球範圍內部署,與各個雲服務無縫銜接的同時,還能很好地利用全球的計算資源。
產品驅動增長的策略也讓 Lepton AI 主動放棄了一些潛在客戶,特別是需要大量定製化服務的客戶。“B 端的部分客戶會希望提供商有更多人力投入到自己的專案中,但我們根據目前的成長階段,會優先考慮與自己產品契合的客戶。這是一種主動的選擇,我們沒有選擇那些需要大量人力投入的業務和客戶。”賈揚清說道。
不過賈揚清透露,Lepton AI 目前的客戶數量和整體營收都處於非常健康的增長狀態,他對此也比較滿意,“這驗證了我們之前的想法和產品在使用者中的接受度。”
最近,賈揚清團隊釋出了基於 Lepton 平臺的雲 GPU 解決方案 FastGPU,主打經濟高效和可靠,“限時以每小時 0.65 美元的價格提供 RTX 4090 GPU”。釋出後就有人給賈揚清留言:缺貨。
創業期間,賈揚清越來越樂於向公眾表達自己的態度,或者也可以說釋放自己的個性。
“在阿里時,同事對我的評價就是直率。技術領域通常沒有太多花哨的技巧。因此,我傾向於以事實驅動的方式來表達觀點,但這樣可能會顯得比較直接。”賈揚清說道,“畢竟我們現在還是一家小公司,會更加無所顧忌一些。”
他不認為這種直率的表達有什麼不好。“在大公司,我們不想給人一種過於衝動或折騰的形象。但在小公司,直白地表達有時並不是壞事,甚至有時為了吸引注意也是必要的。”
就像他會承認說“所有基準測試都是錯的”這樣的話比較激進和吸引注意,但實際上這是他對榜單變成市場宣傳工具的不滿。“我更希望榜單成為一個所謂的入門資格認證,而不是奧運會金牌。”
雖然頂著各種光環,但創業初期也難免會被質疑。
有人會懷疑小公司的服務是否可靠和穩定。賈揚清分享了個小案例,有客戶使用 Lepton 提供的推理服務,推理服務流量下降時系統發出了警報,團隊檢查後發現是客戶側程式碼的問題,提醒客戶後他們非常滿意。對於創業團隊來說,“行不行”得看實際表現。
任何人的創業都不是一帆風順的,賈揚清逐漸學會了在各種不確定過程中,做出一些重大決策。
就像在去年下半年全球 GPU 供應非常緊張,公司面臨的選擇是:要麼囤積 GPU 進行交易,要麼利用這段時間專注提高產品的成熟度來支援現有客戶,並尋找那些擁有 GPU 資源但需要更高效平臺和引擎的客戶。
賈揚清選擇了後者,而隨著 GPU 供應情況的好轉,也證明了他當時的判斷是正確的。但事後看來,這仍然是一個相對冒險的選擇,如果市場持續是賣方市場,公司就會陷入困境。
“作為一個創業公司,我們經常面臨不確定性,還要在當時做出決策。一方面,我們需要不斷觀察市場,另一方面則要堅決執行決策,這也是提升我們自身效率的關鍵點。”賈揚清說道。
在一次次決策的制定中,賈揚清正在逐漸適應並把自己 CEO 的角色扮演得很好。
國外創業一年多,賈揚清也親身經歷了矽谷對大模型的狂熱。“矽谷現在競爭依然激烈。”賈揚清說道。
根據賈揚清觀察,矽谷的企業和研究者現在主要關注兩件事情:
一是如何實現產品的實際落地。儘管許多演示案例還停留在賣概念的階段,但現在整個供應鏈已經非常充足,接下來的關鍵就是如何讓技術真正被使用者採用,尤其企業服務領域還有很長的路要走。
二是對基礎模型的研究。越來越多的人開始思考 Transformer 和 Scaling Law 的邊界在哪裡。GPT-5 尚未釋出,大家不確定 Transformer 架構的天花板是否到來,但已經有人探索 Transformer 之外的路徑和方法,如 RWKV(Receptance Weighted Key Value)和 Mamba。同時,也有許多人嘗試透過資料工程和強化學習等手段,從 Transformer 架構中挖掘更多潛力。
“矽谷的情況我覺得比較有趣。”在賈揚清看來,矽谷的產品更加多元化。“矽谷並沒有很多公司做類似 ChatGPT 介面的事情,而是在尋找不同垂直領域的方向。比如做 AI 搜尋的 Perplexity,其場景和產品形態就有明顯不同。
賈揚清也不掩對 OpenAI 的稱讚,“我認為 OpenAI 是一個非常成功的公司,無論是 To C 還是 To B 市場,它在營業資料和使用者心智方面都做得非常出色。”據他了解,OpenAI 已經實現了產品市場契合,儘管仍在大量投資研發,但其在產品化方面實際上是盈利的,例如企業服務和 ChatGPT 等。
“這為整個行業帶來了信心,表明這不僅僅是一個燒錢的遊戲,而是真的能夠賺到錢。現在,就要看各家公司是否能夠成功走出一條商業化的道路。”賈揚清說道。
對於國內的大模型市場,賈揚清直接指出,“我們可能還處於一個相對追趕的水平。”
“國內的 AI 領域湧現出來很多非常優秀的公司,同時大家也在受到產品同質化的困擾。例如以聊天為中心的產品,使用者可能會感到眼花繚亂,因為這些產品看起來太相似了,包括我自己在內,都不知道如何選擇,因為它們看起來都差不多,而使用者一般也不想一個個去嘗試。”
不過,賈揚清也肯定了國內的大模型企業在資料和使用者量方面的重要優勢。
“在國內,我們有時開玩笑說 100 萬用戶不算什麼,但實際上這已經是一個非常龐大的使用者基數了。”賈揚清說道。另外,國內使用者也非常願意嘗試新事物,這為企業提供了快速驗證產品有效性和市場接受度的機會。
賈揚清對國內的期待是,能有更多的產品經理投入到 AI 領域,思考新的產品形態或研究如何將 AI 更好地嵌入到現有產品形態中。他表示,現在許多應用並非由 AI 專家開發,而是產品經理推動的,而未來產品是否好用會逐漸成為使用者採納的決定性因素。
如今許多技術團隊都面臨著如何有效應用 AI 技術的問題,即使 ChatGPT 也無法精準解決實際業務問題,因此找到合適的業務場景並不容易,To C 的文生圖、聊天機器人等已經成熟,To B 領域卻還處於不甚清晰的狀態。
對此賈揚清給出的建議是,企業自己的工程師要能輕鬆使用 AI 技術,同時積極與不同領域的工程師討論各種概念及 AI 的能力邊界。“與其花費大量精力去訓練一個更強大的模型,更重要的是培養自己的團隊,使他們能夠快速理解 AI 的邊界,並將這些邊界與自身的應用需求有效結合。”
“應用大模型的企業最關心的不是價格,而是 AI 能否真正解決問題。”賈揚清提到,從這個角度看,國內愈演愈烈的大模型價格戰意義並不大。不過,大模型價格下降也是趨勢。“IT 領域的價格指數級下降是一個持續性的規律,我不認為大模型會是不受限制的一個領域。”
但小公司往往無法承受價格戰和補貼戰的資金消耗,為此,賈揚清建議小公司去精準支援和服務企業,尤其滿足垂直領域的需求,這樣也會找到自己獨特的發展空間。
國內大模型還面臨一個問題,就是常常被質疑套殼。賈揚清認為,一定程度上,使用標準架構或所謂的“套殼”並不是問題,比如大家都使用 AlexNet 或何愷明的 ResNet。他更關注的是,國內開發者如何提高自己的工程實踐能力,並與海外開發者和開源社群更緊密地合作。
結合自己之前參與開源社群的經歷,賈揚清認為國內大模型社群還需要提高協作等能力。“國內開發者獨立工作時表現得都很好,如果能更好地協作,就能建立更大、更健康的開源生態系統和社群。”
實際上在今年 3 月份,賈揚清認為“開源模型能迅速追上閉源模型”。現在他也認同,谷歌和百度等公司的閉源模型某些方面是會領先開源模型的,比如在全網搜尋等某些企業本就擅長的領域,還有在超大規模的通用模型領域,因為這樣的模型需要強大的資金和人才支援。
儘管如此,賈揚清直言自己更支援開源模型。一方面,開源可以促進更多研究,有助於找到更新、更有用的模型。另一方面,由於具有更好的定製化能力和企業自有智慧財產權的優勢,開源模型有望迅速趕上甚至在某些方面超過閉源模型。他也提到,“有 Meta 這樣資金雄厚、專業能力強的公司支援開源社群,是非常幸運的。”
對於 Lepton AI 自身也會從開源中受益的事實,賈揚清也直言不諱:“如果一切都是閉源的,我們就只能支援少數幾個閉源公司,市場就不會那麼大。我們希望市場能夠更加多元化,越多元化越好。從市場經濟原理看,競爭能夠提升質量。”
“這一波 AI 浪潮的持續時間超出了我們所有人的預期。”賈揚清說道,“儘管 ChatGPT 會出一些問題,但我現在遇到問題或需要寫文案時,還是會先讓它幫忙處理。因此,我不認為 AI 行業會出現寒冬。對於一些投入明顯超出收益的行為,市場會自我修正。”
在賈揚清看來,未來大模型發展的關鍵還是要回到商業成功上面。今天,人們已經不再懷疑 AI 是否有用,而是糾結如何讓它實際產生商業價值。
但目前,AI 產品和服務還沒有真正跨出自己的圈子。“當前 AI 市場,某種程度上是 AI 圈內人在自我消化需求,非 AI 使用者消費 AI 服務的量還待起步。”賈揚清表示,未來 AI 技術能夠被那些對 AI 一無所知的人以某種方式使用,這是它產生更大商業價值的先決條件。
現在,留給創業公司試錯的空間並不多,但留給行業的問題還很多。AI 行業如何更長遠地走下去,是包括賈揚清在內的每個參與者需要回答的問題。
《大模型領航者》是 InfoQ 推出的一檔聚焦大模型領域的訪談欄目,透過深度對話大模型典範企業的創始人、技術負責人等,為大家呈現最新、最前沿的行業動態和思考,以便更好地參與到大模型研發和落地之中。我們也希望透過傳播大模型領域先進的實踐和思想理念,幫助潛在大模型應用者、創業者、開發者等做好各類決策和選型。
如果您有意向報名參與欄目或想了解更多資訊,可以聯絡:T_demo(微信,請註明來意)
賈揚清擔任聯席主席的 AICon 全球人工智慧開發與應用大會將於 8 月 18 日至 19 日在上海舉辦,匯聚頂尖企業專家,深入端側AI、大模型訓練、安全實踐、RAG應用、多模態創新等前沿話題。現在大會已開始正式報名,6 月 30 日前可以享受 8 折優惠,單張門票節省 960 元(原價 4800 元),詳情可聯絡票務經理 13269078023 諮詢。

