萬字回顧中國生成式AI大會!50+大咖演講精華乾貨爆棚,來沒來都值得收藏

兩天,超過50位產學研嘉賓密集輸出高濃度、高質量的乾貨資訊,深度解構DeepSeek引發的變革狂潮。
4月1日-2日,一場全場乾貨爆棚的生成式AI盛會,在北京圓滿舉行。
開年以來,DeepSeek的異軍突起,改寫了中西大模型競爭敘事。生成式AI似乎猛然衝進一個全新徵程中,中國企業更是鬥志昂揚地踴躍創新,不僅領銜AI開源盛世,還掀起了新一輪模型部署與AI應用研發熱潮,在這千載難逢的歷史機遇期全速衝鋒。
為此,我們發起了一場聚焦前沿技術與產業趨勢的春日AI聚會——2025中國生成式AI大會(北京站)。
大會以“大拐點 新徵程”為主題,兩天之內,超過50位產學研嘉賓密集輸出高濃度、高質量的乾貨資訊,深度解構DeepSeek引發的變革狂潮,全面展示覆蓋深度推理模型、多模態模型與世界模型、AI Infra(AI基礎設施)、AIGC應用、Agents(智慧體)、具身智慧等領域的生成式AI最新進展。
▲中國生成式AI大會主會場開幕式、GenAI應用論壇、大模型峰會、分會場技術研討會、展區人流密集
本屆大會主會場舉辦開幕式、GenAI應用論壇、大模型峰會,分會場舉辦3場以DeepSeek R1與推理、AI智慧體、具身智慧大模型為主題的技術研討會,期間既有同頻共振,又有激烈觀點交鋒,現場參會觀眾超過1500人。
展區亦是人頭攢動,從早到晚充斥著熱切的交流聲,Alluxio、Zenlayer、DriveNets、澳鵬資料、晴數智慧、中昊芯英、GMI Cloud、焱融科技、英博數科、華為雲、研惠通、新晧誠科技、楓清科技、科華資料、首都線上、清智圖靈等16家企業帶來最新技術產品展示。
這已經是智一科技旗下智猩猩、智東西共同發起中國生成式AI大會的第四屆,也是AI青年學者密度最高的一屆。自2023年以來,大會累計吸引了數千人線下參會,線上觀看人次更是超過1000萬,成為國內AI領域最具影響力的產業峰會之一。
▲聯想集團Game of AI科普影片在大會展播:聯想工廠製造控制塔MCT2.0,生成式AI在製造業首次落地
智一科技聯合創始人、CEO龔倫常在致辭環節宣佈:今年,中國生成式AI大會正式升級為“智領未來”北京人工智慧系列品牌活動之一。
“智領未來”是北京市科委、中關村管委會打造的北京市人工智慧領域的活動品牌。此外,同樣作為“智領未來”北京人工智慧系列品牌活動之一的中國AI算力峰會將於今年6月在北京舉辦。
龔倫常還預告了將於今年舉辦的多個主題會議:4月底,中國汽車智慧化創新峰會將在上海車展期間同步舉辦;9月,全球AI晶片峰會將在上海舉辦;11月,中國具身智慧機器人大會將在深圳舉辦。歡迎感興趣的朋友們關注。
▲智一科技聯合創始人、CEO龔倫常致辭
01.
開幕式:突破大模型預訓練瓶頸,
為AI應用爆發掃清障礙
進入2025年,AI領域湧現哪些新關鍵詞?慢思考推理技術如何緩解大模型預訓練瓶頸?怎樣讓機器人操作互動像跳舞一樣絲滑?Agents(智慧體)落地企業需攻克哪些挑戰?國產算力怎麼解鎖萬卡叢集難關?
在大會首日開幕式上,產學研嘉賓圍繞深度推理模型、具身智慧機器人、AI智慧體、AI算力基礎設施、AI應用,分享了對最新技術思路與推動落地的觀察與思考。
1、人大趙鑫:慢思考推理技術如何緩解大模型預訓練瓶頸?
中國人民大學高瓴人工智慧學院教授趙鑫談道,大模型本質上是一個條件機率生成模型,思維鏈會提升預測正確的可能性。
當前訓練模型效能增長會出現邊際效益遞減,其中資料和算力是探索擴充套件法則的主要限制,這也是為何當下需要慢思考推理技術。
慢思考推理技術的基本思路是“搜尋+學習”的結合,具體來看,包括基於多次取樣的方法、基於樹搜尋的方法、基於SFT(監督微調)的方法、基於RL(強化學習)的方法。
趙鑫教授團隊在慢思考技術方面進行了大量研究。在RL技術領域,找到可驗證的訓練資料非常重要,團隊系統探索了類R1模型的復現方法。
推理模型本質上可以認為是一個具備逐步推理/動作規劃的“大腦”,未來推理模型可能會深刻影響現有智慧體的設計模式。
▲中國人民大學高瓴人工智慧學院教授趙鑫
2、清華許華哲:如何讓機器人的操作互動像跳舞一樣“絲滑”?
清華大學交叉學院助理教授、博導、星海圖聯合創始人許華哲談道,當前機器人做跳舞、跑步、扭秧歌這類事已經很嫻熟了,有大量資料支撐,但在操作互動方面資料十分匱乏,還有很長的路要走。
解決資料難題,讓機器人有觸覺是非常關鍵的,這樣資料才能更豐富,團隊設計了模擬手套,可以讓機器人同步人手的操作。
有了資料還不夠,資料量也非常關鍵,為此,團隊透過DemoGen的方式豐富資料量,藉此機器人的泛化能力可以得到進一步提升。相比傳統方式,透過DemoGen的方式獲得資料的速度快了上萬倍。
未來讓機器人能夠泛化地去做更多的柔性操作,是團隊努力的方向。
▲清華大學交叉學院助理教授、博導、星海圖聯合創始人許華哲
3、PINE AI李博傑:AI原生團隊是組織形態的一場重大變革
PINE AI聯合創始人、首席科學家李博傑認為,AI Agent在爆火的同時,也面臨著企業知識孤島、GUI使用困難、缺少獨立測試環境、無法長時間執行等問題。
要打造AI原生團隊,讓AI真正成為“數字員工”,需要為Agent打造類似開源社群的溝通文化,實現開放透明的資訊共享,並配備AI友好的團隊協作工具介面、完善的測試環境與測試用例,同時讓每個員工都擁有AI助理。
從技術層面來看,未來Agent還需要在明晰需求、主動溝通、主動協作、長期記憶、自我反思回溯與高精度內部知識庫搜尋等方面實現突破,才能真正實現從工具到團隊成員的轉變。
▲PINE AI聯合創始人、首席科學家李博傑
4、壁仞科技丁雲帆:64卡4TB視訊記憶體訓練滿血DeepSeek-V3,異構混訓逐步邁向萬卡叢集
DeepSeek引爆了大模型落地元年。壁仞科技AI軟體首席架構師丁雲帆認為,大模型落地需要工程和演算法的協同創新,資料是燃料,演算法是引擎,算力是加速器。
壁仞科技目前有萬卡叢集整體解決方案和智算生態,希望透過軟硬協同&演算法與工程協同,系統性地破解大模型算力難題:硬體叢集算力方面,壁仞科技自主原創了GPU晶片架構,引領Chiplet技術趨勢;軟體有效算力方面,有大模型訓推一體平臺,業界首次實現大模型訓練自動彈性擴縮容。業界首創三級非同步checkpoint,千卡叢集千億引數可以實現自動斷點續訓小於5分鐘,大幅提升叢集穩定性。
大規模分散式最佳化方面,壁仞科技針對國產GPU高效適配DeepSeek進行了一系列技術最佳化創新,64卡4096GB視訊記憶體即可支援DeepSeek-V3滿血版高效全參訓練,而其他已公佈方案至少需要256卡。
此外異構聚合算力方面,壁仞科技自主原創了異構GPU協同訓練方案HGCT,支援4種及以上異構GPU協同訓練同一個大模型,解決了異構混訓的關鍵技術挑戰,已實現數千卡規模混訓,下一步將突破萬卡混訓。
▲壁仞科技AI軟體首席架構師丁雲帆
5、英諾天使基金王晟:AI應用爆發,需要新終端裝置的出現
英諾天使基金合夥人王晟談道,2023年是大語言模型的爆發期,2024年則轉向多模態技術,但2024年被寄予厚望的“AI應用元年”並未如期而至,主要原因是缺乏新終端裝置和新場景定義,當前既有裝置的場景需求已接近飽和。
▲英諾天使基金合夥人王晟
未來,AI應用的爆發可能需要於新終端裝置、新計算能力的出現。能夠提供情緒價值的AI玩具和陪伴類產品也擁有巨大的潛力,因為人類為情緒價值買單的意願非常強烈。
此外,AI公司的發展方向正從工具提供轉向智慧代理,未來會成為“造人”的公司,讓AI能夠承擔更復雜的任務,甚至取代人類從事多種職業。2025年,AI領域的關鍵詞包括應用、AI硬體、具身智慧和世界模型,這些方向將定義未來的技術和市場格局。
02.
高階對話:中國AGI新徵程全速起航,
全產業鏈迎巨大發展機會
以《DeepSeek開啟大模型下半場 中國AGI新徵程全速起航》為主題的高階對話,由智一科技聯合創始人、智車芯產媒矩陣總編輯張國仁主持,彩雲科技創始人兼CEO袁行遠,GMI Cloud創始人兼CEO Alex Yeh,PINE AI聯合創始人、首席科學家李博傑,智澄AI創始人及CEO胡魯輝,四位嘉賓分別作為AI應用、算力雲、Agent、具身智慧企業代表進行分享。
智一科技聯合創始人、智車芯產媒矩陣總編輯張國仁談道,今年春節以來,從DeepSeek、人形機器人到通用Agent產品Manus,中國團隊不斷造出現象級AI產品,2025年AI發展似乎進入了“中國時刻”,隨著中國AGI新徵程全速起航,中國市場、中國公司在全球AI格局扮演的角色和發展特徵都備受關注。
▲智一科技聯合創始人、智車芯產媒矩陣總編輯張國仁
1、DeepSeek顯著提升成本效益
PINE AI聯合創始人、首席科學家李博傑認為,DeepSeek-R1揭示了大模型訓練的真實成本,讓世界瞭解到只要方法得當,便能訓練出優秀的模型。
GMI Cloud創始人兼CEO Alex Yeh談道,DeepSeek的開源模型顯著降低了企業的部署成本,使企業能夠以低成本快速構建應用。
彩雲科技創始人兼CEO袁行遠更是用事實說話,提到彩雲科技旗下產品在切換到DeepSeek後,成本降低了90%,毛利率轉正。
▲彩雲科技創始人兼CEO袁行遠
2、中國開源活躍度高,年輕人展現出後發優勢
談及中美AI發展的差異,Alex Yeh觀察到,中國在開源社群的活躍度和快速落地能力顯著優於美國,這也意味著中國在AI應用爆發上會有巨大的機會。
▲GMI Cloud創始人兼CEO Alex Yeh
彩雲科技旗下的產品正在出海。袁行遠分享說,海外使用者對資料、隱私等問題的關注度較高,與國內使用者區別明顯。他認為中國有望透過大量高質量的人才儲備,在中美AI對決中取勝。
在李博傑看來,AI行業領域知識獲取更便捷,對經驗的要求相對較少,使許多年輕的中國企業和研究者能展現出後發優勢。
3、做基礎模型還是AI應用?
針對做基礎模型還是AI應用的選擇問題,Alex Yeh認為大廠偏重基礎模型的訓練,而中小企業則應專注於快速落地和應用開發。
AI訓練需要消耗海量的資料與算力。智澄AI創始人及CEO胡魯輝相信,未來的創新將圍繞如何更高效地利用資料和算力展開,創業公司在未來十年也仍將有巨大的發展空間。
▲智澄AI創始人及CEO胡魯輝
彩雲科技既做AI基礎研究,又開發了彩雲天氣、彩雲小夢等AI應用。在袁行遠看來,在AI應用落地的過程中,高效能底層模型已如“電力”般廣泛可及,行業重點逐漸從基礎演算法轉變為對應用細節的極致追求。以天氣預報為例,通用AI模型無法敏銳地識別雲圖中的細微變化和噪音,需要運用大量的一線行業知識才能完美勝任。
4、未來兩年是垂直領域Agent的關鍵突破口
PINE AI正在打造能聽、能看、能說、能操作電腦的通用AI Agent,未來希望成為數字員工和個人助理。
李博傑說,Agent的形態正在變化,決策能力、通用性不斷增強,未來兩年是垂直領域Agent的關鍵突破口,企業需要在這一階段積累品牌聲譽與網路效應,為2027年左右通用Agent爆發做好準備。
▲PINE AI聯合創始人、首席科學家李博傑
除了完成單一任務之外,通用Agent的價值還在於並行完成大量重複性工作,為生產、生活節省時間,提供便利。在李博傑看來,這類Agent有望在2025年初步落地,產生價值。
5、具身智慧可能在五年內實現
胡魯輝談道,大模型可能只是AI發展的一個階段性成果,AI發展正從生成式AI邁向物理智慧,最終實現通用人工智慧(AGI)。
李博傑也認為,具身智慧很有可能是AI到達甚至超過AGI的路徑。具身智慧在與現實世界互動的過程中,獲得大量知識與資料,助力模型能力持續提升。
Alex Yeh預測具身智慧將在未來五年內實現,特別是在工業領域的應用。
他提到多模態資料的整合將推動AI向更高維度發展,為AGI的實現提供新的路徑。AI目前還缺少物理資料,透過VR、AR等技術收集,並結合虛擬場景訓練,可加速具身智慧的發展。
針對近期資本退出人形機器人公司的爭議,胡魯輝相信行業共識能夠推動科技發展、人類進步,堅持長期主義很重要,亞馬遜、微軟等大公司的成功都源於長期堅持。因此,投資應注重長期價值。
03.
GenAI應用論壇:從生活到企業,
如何用AI掀起生產效率變革?
伴隨著前沿模型快速迭代突破,AI應用迎來前所未有的繁榮期,快速將AI技術轉化成能夠解決消費級、生產級問題,帶來實際價值的賦能工具。
在大會首日GenAI應用論壇上,AI平臺、影片生成、智算雲、AI PPT、AI搜尋、AI動漫、端側晶片領域的嘉賓代表各抒己見,剖析產業問題,暢談落地思路,分享他們在真實應用場景中的實踐經驗和對未來趨勢的研判。
1、楓清科技高雪峰:單一模型無法解決生產級問題,AI落地產業有三要素
楓清科技Fabarta創始人兼CEO高雪峰認為,單一產品、技術或模型難以解決複雜的生產級問題,只有將各類AI技術落地在企業、產業之中,帶來真正的高價值場景,融合為生態系統,才能讓AI技術更富有生命力、更繁榮。
AI技術在產業中落地,有三個關鍵要素:知識引擎、行業大模型、智慧體平臺。要把生成式AI技術應用到產業端,最需要實現決策智慧。
楓清科技採取了以資料為中心的AI平臺架構落地的正規化,還推出知識引擎和行業大模型雙輪驅動的智慧體平臺,幫助企業實現多場景價值落地。該平臺透過多模態資料儲存和計算,智慧化構建企業知識庫,支援精準推理和複雜推理能力。
▲楓清科技Fabarta創始人兼CEO高雪峰
2、愛詩科技孫偉哲:影片模型需兼顧趣味與速度,幫每個人成為生活的導演
愛詩科技是全球最早訓練影片生成大模型的團隊之一,正以高頻的技術研發節奏,進行底層模型的迭代。愛詩科技企服負責人孫偉哲分享說,針對短影片時代使用者習慣的特點,打造影片生成模型需要兼顧趣味與速度,前者能促進使用者的關注與傳播,而後者則是提升使用者體驗的關鍵。
語言曾經是傳遞資訊的最好介質,但目前我們接受的大部分資訊都來自於影片。全球影片創作需求已大量湧現,日均影片播放量達800億次,企業也需要透過AI技術實現影片內容生產的降本增效。愛詩科技希望透過影片生成技術,實現創作平權,幫助每個人成為生活的導演。
愛詩科技的PixVerse是全球最早實現千萬級MAU的影片生成產品,並同步發力B端業務,利用影片生成技術,為企業客戶在數字營銷、資訊流廣告、短劇創作與出海、遊戲設計與開發等領域提供助力,並提供了持續、精準的運營服務。
▲愛詩科技企服負責人孫偉哲
3、GMI Cloud King Cui:推理服務成AI出海關鍵支撐,及時彈性擴容是核心效能
GMI Cloud亞太區總裁King Cui談道,基礎模型能力提升和開源生態的豐富,為AI應用爆發提供了核心必要條件,這背後,為中國AI產品出海提供關鍵支撐的就是推理算力。
AI應用往往會出現使用者規模和訪問量短期暴漲等現象,因此提供及時性、擴充套件性、穩定性的推理服務至關重要。
GMI Cloud的目標是打造更高效能的GPU推理雲服務,支援全球範圍自動擴縮容、一鍵部署推理模型、搭載自動容錯機制等。
▲GMI Cloud亞太區總裁King Cui
4、畫素綻放PixelBloom蒲世林:AI帶來的效率革新符合發展趨勢,需理性擁抱
畫素綻放PixelBloom(AiPPT.com)聯合創始人蒲世林談道,隨著底層算力和模型層成本的顯著下降,AI應用層迎來全面爆發的機遇。
畫素綻放PixelBloom在AI PPT領域,透過ToC、To Partner ToC、ToB三種商業化路徑,既直接服務消費者,也與頭部企業合作提升辦公效率;同時還開放API能力,與聯想、釘釘等硬體和軟體廠商深度整合,構建開放生態,覆蓋辦公人群。
在進軍海外市場時,AiPPT.com注重做好本土化,提供多語言版本和本地化模板,滿足不同國家的市場需求,還透過孵化和併購來擴充套件產品矩陣。
在蒲世林看來,AI技術帶來的效率革新符合人類發展趨勢,企業需理性擁抱AI,不低估但也別期待過高,透過實際應用探索能力邊界,以抓住未來十年的AI紅利。
▲畫素綻放PixelBloom(AiPPT.com)聯合創始人蒲世林
5、博查AI翁柔瑩:AI比人類更需要搜尋引擎
博查AI搜尋聯合創始人兼CTO翁柔瑩認為,AI時代,使用者的搜尋習慣已由“關鍵詞搜尋”轉變為“自然語言對話”,內容的生產、流動、消費也在發生變化,在AI為使用者整理、總結資訊的過程中,內容的消費主體已經變成了AI。
AI大模型的訓練資料存在滯後性,必須透過聯網搜尋來獲取最新的內容,才能為使用者提供更好的資訊服務,從這一角度來看,AI比人類更需要搜尋引擎。
為AI打造的搜尋引擎與傳統搜尋引擎在架構上有相似之處,依舊需要即時獲取高質量資訊。博查採用多模態混合搜尋和語義排序技術,能突破傳統搜尋引擎的技術瓶頸,滿足大模型對於高質量世界知識的需求,還打造了全球首個多Agent架構的智慧體搜尋,為AI提供專業領域知識。
▲博查AI搜尋聯合創始人兼CTO翁柔瑩
6、中文線上周立強:AI降低動漫短劇門檻,製作成本降低50%
中文線上AI動漫部總經理周立強談道,中國AIGC應用市場正在加速發展,預計2024年至2028年年均複合增長率將超過30%。作為勞動密集型行業,動漫領域正受到AIGC相關工具的深刻影響。
傳統動漫短劇製作通常包含原文理解、劇本改寫等11個環節,而AI已將流程壓縮至設定理解、生圖合成、後期處理等5個步驟。AI動漫短劇的優勢在於具備跨國傳播能力、支援工業化量產,且製作成本顯著下降——單部作品的製作週期可縮短70%,成本降低約50%。
周立強指出,AI動漫短劇已逐步突破單一流量變現階段。預計未來三年,掌握AIGC全鏈路能力的團隊有望佔據全球短劇市場30%以上的份額。
▲中文線上AI動漫部總經理周立強
7、光羽芯辰周強:端側AI的發展促使手機架構變革,可能孕育出新的大型公司
光羽芯辰創始人兼董事長周強談道,過去幾年,AI經歷了從低谷到高峰的週期,AI創新的核心在於實用性,只有當技術可用且有價值時,市場關注度才會提升。
早期AI應用多侷限於雲端,而端側AI的興起使AI能夠深入生產生活各領域,比如應用到工廠的機器人上,顯著提升生產力。大模型的出現增強了AI能力,但也暴露了硬體效能不足的問題。
端側AI需要新的技術架構以降低功耗、提升效能和頻寬。以手機為例,隨著AI未來的發展趨勢,智慧手機將進化為AI手機,將整合更多端側資料,成為所有智慧終端的中心,光羽芯辰的端側晶片以及創新的解決方案和架構將極大的助力這一變革。
▲光羽芯辰創始人兼董事長周強
8、Zilliz郭人通:對於Agent構建,我們如何有效支援海量資料檢索,挖掘隱藏於長尾的高價值資訊?
Zilliz關注如何有效檢索海量資料,發掘隱藏於長尾的高價值資訊。在OpenAI釋出Deep Research功能之後,Zilliz也嘗試了復刻。
據Zilliz合夥人、產品總監郭人通分享,對於Deep Research這類Agent系統,在資料基礎設施層面需要在資料建模、部署、快取、多租、冷熱資料處理等方面做好最佳化,聚焦資訊檢索質量,提高單位成本可支撐的檢索迭代輪次,以保證 Agent 對問題的理解度以及對資訊的挖掘深度。Zilliz目前已提供系統性解決方案。
對於提高查詢質量,目前有一系列經過生產驗證的方法,包括查詢改寫,如多查詢條件生成、查詢拆解、意圖識別等,這有助於突破傳統RAG技術的搜尋侷限性。此外,帶正負樣本的查詢增強、多模態搜尋也能有效提升搜尋質量。
目前,許多企業已切入垂直Agent方向,海量領域資料也引發資料Infra的變革,基於S3構建的資料Infra正逐漸獲得更多企業使用者的選用。今年下半年,Zilliz將推出面向AI應用的資料湖解決方案,從五月開始,Zilliz會面向業界進行介紹,敬請關注。
▲Zilliz合夥人、產品總監郭人通
04.
大模型峰會:判趨勢,剖解法,
全面直擊演算法、算力、資料挑戰
大會第二天舉行的大模型峰會,更加聚焦於大模型產業鏈底層技術,從模型、中介軟體、雲服務、知識圖譜、儲存、網路、晶片、資料平臺等多維度切入,探討突破大模型演算法、算力、資料關鍵瓶頸的可行路徑。
現場,焱融科技首次釋出了KV Cache在推理場景效能最佳化資料實測資料顯示:在長上下文場景中,使用YRCloudFile KVCache可實現高達13倍的TTFT效能提升,延時縮短超4倍。
1、上交大戴國浩:全面直擊雲邊端不同場景推理需求挑戰,半分離式方案本月開源
上海交通大學副教授、無問芯穹聯合創始人戴國浩談道,真正能模仿人類智力的模型往往是推理需求,但現有云側和端側很難滿足模型推理需求。
雲側有PD融合式、PD分離式兩種技術路線,其中,PD融合式的技術路線將計算和儲存進行融合的好處是記憶體利用率更高、無需傳遞KV cache,但缺點是不同任務間干擾大;PD分離式技術路線,將計算和儲存資源分離的好處是計算單元容易隔離、抗干擾,但儲存冗餘和不均衡會帶來額外開銷。
因此,無問芯穹取長補短打造半分離式方案Semi-PD,實現計算分離儲存融合,Semi-PD將於一週後開源整體程式碼,月底開源整個叢集程式碼,Semi-PD在一體機和分散式叢集推理等場景下將帶來顯著效能提升。
其端側思路是透過輕量化方式讓終端負載變小,SpecEE技術引入機器學習、模型自適應等,可以判斷是否在級聯結構當前層輸出了正確結果。該技術能無感相容任何端側輕量化方案,整套程式碼將在本月開源。
▲上海交通大學副教授、無問芯穹聯合創始人戴國浩
2、智澄AI胡魯輝:人形機器人“不好用”,與大模型資料挑戰有差別
智澄AI創始人兼CEO胡魯輝認為,機器人將是未來AI生態中的重要組成部分,物理智慧有望成為AI的下一波浪潮,實現更廣泛的通用人工智慧。目前人形機器人泛化能力較差,直接導致成本高昂,歸根結底就是“不好用”。
與大模型一樣,物理智慧面臨著資料、模型、環境、算力等方面的挑戰,但挑戰的核心有所區別。物理智慧可用的資料量更少,需要在“機器人訓練場”中採集資料,機器人端側算力限制也對模型能效提出了要求。
智澄AI從世界模型的研發與人形機器人本體的打造兩個角度切入,打造的TR4機器人能以視覺+力度感知的方案實現物體抓握,無需依賴觸覺。
▲智澄AI創始人兼CEO胡魯輝
3、焱融科技張文濤:高效能全快閃記憶體儲在訓練與推理中如何破解AI算力瓶頸?
焱融科技CTO張文濤分享說,針對大模型訓練和推理的儲存解決方案,焱融科技透過Multi-Channel技術聚合多個網絡卡、頻寬等,提供高效能核心私有客戶端,能夠滿足高效能元資料訪問需求,為企業提供高效、靈活的儲存支援。
焱融科技在資料管理方面,採取智慧分層和資料載入功能來最佳化管理流程。此外,焱融科技順勢推出的DataInsight資料編排管理平臺,幫助企業解決其應用AI大模型中的海量歷史業務資料管理難題;支援多維度組合查詢,實現百億級資料秒級檢索。透過自研DataFlow技術,使用者可自定義資料流動策略,確保資料按需、快速嵌入業務流程。平臺還具備增量資料自動感知能力,保障使用者從知識庫平臺訪問時獲取最新資料,進一步提升資料流動效率。
在運維方面,焱融科技透過提供目錄集來做好多租戶管理和隔離,並設定了彈性資料網路,使一套儲存能夠支援多種網路平面,並幫助管理員簡化基礎設施建設。
其產品效能出色,依託於分散式元資料叢集能夠支撐千億級海量檔案,能夠支援高速無損網路及多種介面,還適配多個國產化平臺。在本屆大會上,焱融科技還首次釋出了KV Cache在推理場景效能最佳化資料。
實測資料顯示:在長上下文場景中,使用YRCloudFile KVCache可實現高達13倍的TTFT效能提升。在TTFT≤2秒的嚴苛約束下,其支援的併發數提升達8倍,且在高併發負載中延遲可降低4倍以上。張文濤談到YRCloudFile KVCache可構建PB級KVCache快取層,有效突破GPU視訊記憶體限制,顯著提升快取命中率與推理上下文長度。
▲焱融科技CTO張文濤
4、Zenlayer陳秀忠:token洪流下算力網路三大趨勢,即時互動、分散式推理、高效IDC
Zenlayer行業拓展總監陳秀忠談道,token是大模型世界的基礎單位,過去8個月,token使得整個網路世界流量增長,達到移動網際網路時代的3~4倍。
token的整個生命週期包括AI工廠生產,再經網路傳輸給使用者,其在生產過程需要大量算力和電力,在傳輸和消費環節需要靠近使用者的推理節點實現即時互動。
在token洪流下,未來的三個演進趨勢包括即時互動的全球網路、分散式推理的易用模型服務、高效的IDC。基於此,Zenlayer構建了覆蓋全球的專線網路、覆蓋亞太地區的AI機房、在現有邊緣節點推出模型服務等。
▲Zenlayer行業拓展總監陳秀忠
5、清程極智師天麾:如何打造國產模型與國產算力間的橋樑?
清程極智聯合創始人、產品副總裁師天麾分享說,在DeepSeek、QwQ等國產推理模型爆火之後,大模型私有化部署需求大幅度增加。在國外算力獲取困難、國產顯示卡軟體生態不完善的背景下,打造連線國產模型與國產算力的橋樑尤為迫切。
清程極智已聯合清華大學開源了赤兔推理引擎,支援在非Hopper架構裝置(如早期大部分英偉達GPU和大部分國產晶片)上原生執行FP8模型,打破硬體繫結,提升算力使用效率,並能有效保留模型原有精度。
目前清程極智基於赤兔引擎推出多款大模型私有化部署方案,可根據不同場景需求提供針對性解決方案,結合企業業務,提供從私有化部署到智慧體開發的一站式服務。
▲清程極智聯合創始人、產品副總裁師天麾
6、首都線上張振宇:以全棧國產化為特色,助攻生成式AI規模化落地
首都線上集團智算產品總經理張振宇談道,隨著DeepSeek爆火,AI大模型國產化趨勢正在加速,推理市場將迎來大規模增長。首都線上後續也會更聚焦於推理算力的佈局。
此前首都線上智算雲已成功應用於多個生成式AI場景,如自然語言處理、影像生成、影片生成等,公司今年將持續最佳化“一雲多模、一雲多芯、一雲多池”的戰略佈局,去構建高度靈活的AI服務平臺,我們的平臺不斷拓展支援的模型種類,為使用者提供更豐富的選擇,滿足不同場景需求。
首都線上Maas雲平臺透過構建雲端協同調優體系,以算力效能最佳化為基礎、模型即服務(MaaS)平臺為核心,為AI開發者及算力夥伴帶來創新性升級,形成了閉環式技術解決方案,不僅有效提升了GPU利用率,降低了訓練成本,能夠為客戶提供更加高效、靈活、低成本的算力服務,還為大模型從實驗室走向產業化提供了關鍵技術支撐。
▲首都線上集團智算產品總經理張振宇
7、海致科技李思宇:以圖為核心,打通大模型與多模態行業知識
海致科技技術總監李思宇談道,大模型實際專案落地的Prompt提示詞工程,RAG檢索召回增強、Agent Function/Tool Call、SFT監督微調訓練四種基本方法,其關鍵是讓大模型結合多模態行業知識。
針對此,海致科技的思路是統一知識與資料認知,其解決方案以圖為核心,結合工具將標量資料和向量資料打通形成有機整體。
透過將大模型與知識圖譜融合,海致科技形成了基礎模型層、語義知識層、邏輯圖譜層、智慧體應用層,可基於基礎模型、元資料知識體系,在應用層之上構建智慧體、工作流。
實際落地中,其解決方案接入警情案件等五情資料,可融合跨不同事件、不同情報資料,形成完整事件物件關係圖再以此進行資訊挖掘,實現匯聚非結構化和結構化資料的整體圖譜。
▲海致科技技術總監李思宇
8、中昊芯英朱國樑:Scaling Law延續下的AI晶片軟體棧重構
中昊芯英軟體研發負責人朱國樑介紹,目前,Scaling Law正沿著測試時計算、強化學習與預訓練三條路徑延續。需要不斷重構AI晶片軟體棧來滿足新的算力挑戰。
對大部分廠商而言,超大Batch-Size依舊是優先事項,下一個Transformer級別的架構尚未出現。
目前在推理方向最佳化,探索方向包括KV快取解除安裝、PD分離、稀疏注意力和MoE通訊最佳化等。
強化學習方面,隨著強化學習兩階段訓練的正規化形成,訓練和推理協同排程需求不斷增長。
預訓練方面,需要在訓練通訊特徵、訓練通算重疊與訓練容錯等方面對現有軟體棧做出修改。
▲中昊芯英軟體研發負責人朱國樑
9、澳鵬董成:大模型愈往垂類應用端發力,對資料質量要求愈高
澳鵬Appen中國及韓國區副總裁董成透過澳鵬在各領域大模型部署中資料訓練的最佳實踐,重點分享了對大模型應用趨勢的觀察。以AI Agent為代表,未來,大模型必定應用到具體的垂直領域中,比如金融、醫療、程式碼、音樂、文學等。
這一趨勢對資料的高質量、專業度、多垂類提出了越來越高的要求。對此,澳鵬提供了多種AI輔助的前沿資料採標工具和方案,包括文字對話、多模態互動、思維鏈推理工具等。
董成認為,AI大模型行業正經歷顯著變化,Llama和DeepSeek等開源模型在效能上逐漸趕上甚至超過閉源模型,一些企業也從閉源向著開源方向轉變。同時,大模型企業的研發越來越關注複雜任務方向,從最初的簡單對話向模型推理、垂直領域應用、多模態等方向發展。
▲澳鵬Appen中國及韓國區副總裁董成
10、雲軸科技王為:AI實踐應用分四級,基礎設施構建面臨四大挑戰
雲軸科技CTO王為解讀了當前AI基礎設施構建面臨的挑戰,包括模型尺寸增加、上下文視窗增加、全模態支援、多品牌算力支援等。
類比自動駕駛,AI實踐可對應作為工具、作為參考建議、主導到端到端實踐的L1~L4級別。雲軸科技已在AI輔助售後、程式碼、文件等方面有所應用。其中AI輔助售後、程式碼輔助處於參考建議階段,輔助文件為主導階段,這背後凸顯出諸多基礎設施的構建難題。
AI賦能企業內部的技術架構需要穩固的智算底座、模型層,以及包含易用開發、效能評測等工具的運營與應用層。模型層的資源管理員主要關注底層資源使用情況,開發者只需直接匯入模型做精調、推理等賦能業務。
▲雲軸科技CTO王為
11、Alluxio湯文軍:AI時代,高效能分散式快取如何實現極致I/O最佳化?
Alluxio解決方案架構師湯文軍分享說,企業在搭建和最佳化AI高效能資料訪問平臺時,面臨著資料方面的業務壓力、GPU稀缺昂貴且利用率不高、資料解決方案複雜等問題。針對這些問題,Alluxio推出了去中心化的Alluxio Enterprise AI產品方案。
具體來看,針對ML/AI GPU訓練對I/O提出的諸多要求,Alluxio使用一致性雜湊在worker節點上快取資料與元資料,這顯著減少了I/O RPC長度,減少單點故障並降低了Master節點效能瓶頸;最佳化效能時,使用零複製最佳化、並行與隨機讀最佳化,解決了讀放大問題。
最終,Alluxio實現了高效能、低延遲、高可用、容量線性擴充套件等最佳化效果,這套方案可應用於資料預處理、模型訓練、部署、推理等環節,已在眾多場景實際落地,帶來GPU利用率、運維成本等方面的顯著收益。
▲Alluxio解決方案架構師湯文軍
12、澎峰科技張先軼:解讀AI算力部署進階路,從一體機到專線模式
澎峰科技創始人&CEO張先軼分享說,使用者在AI算力部署上的策略通常從單機部署開始,例如使用一體機。隨著需求的增長,使用者會逐步擴充套件到私有化部署,透過MaaS平臺納管更多硬體裝置,並分批建設算力資源,還可以將現有伺服器納入管理,形成一種類似擴容的方案。
為了進一步提升算力利用率和資料隱私安全性,使用者可以藉助國產智算中心的模型的專線模式進行混合部署。這種模式不僅能提高計算中心的資源利用率,還能在保障資料隱私的同時,支援更多應用場景。從商業模式上看,專線部署採用ToB性質的計費方式。未來,使用者可以在此基礎上進行私有模型的微調部署,支援更多應用的開發與擴充套件。
澎峰科技創始人&CEO張先軼
05.
圓桌討論:DeepSeek給AI Infra帶來新機會,
國產軟硬體發展正當時
圓桌討論環節以《DeepSeek給AI Infra帶來的啟示與機會》 為主題,由騰訊雲專有云及智算首席架構師方天戟主持,回顧了過去兩個月AI從業者們圍繞DeepSeek、具身智慧等展開的一系列技術攻關,北京智源人工智慧研究院AI框架研究負責人敖玉龍、澎峰科技創始人兼CEO張先軼、沐冰資料CTO邸澤民、雲軸科技CTO王為分享了對最新產業趨勢的觀察與思考。
1、DeepSeek開源帶來震撼,一體機可滿足基礎需求
騰訊雲專有云及智算首席架構師方天戟強調DeepSeek具有技術創新性,基於H800在卡間通訊受限的情況下,大幅壓縮了大模型成本,使模型本地部署成為現實。

沐冰資料CTO邸澤民認為DeepSeek在開源週中一系列開源工作的最大的震撼在於展現瞭如何在資源受限的約束下,實現最優解的工程能力,充分挖掘了現有算力的潛力。DeepSeek團隊不僅想到了精妙的最佳化技巧與方案,還完成了程式碼與工程實現,並將其完全開源,十分令人尊敬。

▲騰訊雲專有云及智算首席架構師方天戟
談及近期銷售火爆的DeepSeek一體機,方天戟認為這有助於企業在保護資料安全的情況下快速用上DeepSeek,北京智源人工智慧研究院AI框架研究負責人敖玉龍指出使用者需要關注DeepSeek一體機部署後的軟硬體更新問題。
雲軸科技CTO王為提到DeepSeek一體機為客戶提供了入門的解決方案,透過預裝模型和應用降低了部署門檻,能夠快速滿足基礎需求。但隨著需求增長,客戶可能需要更復雜的算力排程和混合部署方案。
2、國產晶片軟硬體可用性提升,如何繞開CUDA護城河?
敖玉龍記得在2017年-2018年,他嘗試將大規模並行技術運用到AI計算中,但當時相關技術尚未完善。過去幾年AI Infra快速發展,有力地支援了大模型的技術進步。
在智源研究院的工作過程中,他接觸到了端側與伺服器側的大量國產晶片。目前,國產晶片的硬體、軟體都已具備一定可用性,主要挑戰在於生態還相對落後,為此智源打造了開源開放統一軟體生態FlagOS來推動國產晶片生態發展。
▲北京智源人工智慧研究院AI框架研究負責人敖玉龍

在ChatGPT爆火之後,關於DSA特定領域晶片或ASIC專用晶片是否會消亡的討論不絕於耳。

邸澤民認為,對於特定領域的計算負載而言,與GPGPU相比,DSA具有效能,成本與能效優勢。從目前趨勢來看,Transformer這個模型架構的有效性經過了驗證,短期內出現顛覆性變化的機率不高,那麼一定會有對Transformer架構計算特點更有針對性設計的專用晶片出現,不論是採用TPU的脈動陣列、存算一體或者別的什麼技術路線,ASIC夠有效降低推理計算成本,只有不斷降低推理成本,才更能讓大模型的應用實現普惠。

▲沐冰資料CTO邸澤民
王為也提到一些最佳化技術在GPGPU上效率不是特別高,所以AI推理往ASIC上發展的可能性非常大。國產算力在推理上替代能力很強,在訓練上還需要一定時間追趕,但應該不會太久。
王為認為,在AI訓練方面,英偉達目前優勢比較突出,因為通訊效能、通訊庫等技術壁壘很高,但現在也有國產卡訓練較大大引數模型的案例,因此假以時日還是可以趕上的。英偉達如今在資料釋出上選擇性披露,著重在低精度上、稀疏算力上等,近年披露的資料逐漸偏向商業宣傳性質,詳細的技術披露較少,這使得評估其真實效能需要更多測試。
▲雲軸科技CTO王為

邸澤民預測在AI訓練場景,GPGPU依舊將會繼續佔據主導地位。在他看來,國產算力如果要透過對PyTorch、TensorFlow等框架相容,並覆蓋數千個長尾運算元,以實現與英偉達的CUDA護城河的競爭甚至替換,在短期內是不現實的。但如果將這種相容與替換目標進一步收斂、聚焦到特定的模型或者特定領域的模型訓練,比如DeepSeek這樣的語言模型,國產廠商是有適配能力與突破空間的。除了框架與運算元適配外,另一個難點在於進一步提升通訊庫的效率。

3、混合推理系統是必然趨勢,具身智慧將催化AI Infra演進
澎峰科技創始人兼CEO張先軼談道,英偉達在硬體創新上的持續投入,使其在AI領域保持領先;英偉達在精度上的創新不斷提升了效能峰值,也為其他晶片公司設立了競爭壁壘。
他判斷未來在大規模部署的情況下,混合推理系統是必然的,能結合不同硬體的優勢以實現更高的價效比和效能。
▲澎峰科技創始人兼CEO張先軼
在混合雲部署的實踐方面,張先軼認為當前對數字隱私要求不是特別高的客戶比較容易接受,可以利用智算中心的算力進行補充,比如一些學校或中小B端。大B端通常對私有化要求會更高。當前做AI機器人的企業,基本採用的是邊緣與雲端結合的方式。
方天戟預測,從長遠來看,相比大語言模型,具身智慧可能會成為進一步促進未來AI Infra演進的新應用領域。
敖玉龍提到具身智慧機器人對端雲協同、通訊等方面提出了新要求,目前機器人的大腦模型往往部署在雲端,控制運動的小腦模型部署在機器人本體,如何實現低延遲的協同需要進一步探索。
06.
結語:中國生成式AI浪潮波濤洶湧
中國生成式AI的每一次突破,從來不是某家企業的獨角戲,而是產學研用協同攻堅的交響曲。
開年DeepSeek的爆火,成為中國乃至世界生成式AI產業的關鍵拐點。它顛覆了“堆砌算力”的固有路徑,開闢出一條“效率優先”的創新路徑,催化開源、推理模型與AI Infra研發熱潮,更為端側AI與國產AI算力基礎設施的落地應用注入了新動能。
站在技術與產業共振的歷史節點,我們每一個人,都正在見證和參與一場激動人心的技術躍遷。
春天來了,生成式AI的浪潮更加波濤洶湧,未來正呼嘯而至。
下一站,也許是基礎模型的飛躍式進化,也許是AI超級應用橫空出世,也許是人形機器人的覺醒,也許是商業價值的裂變,也許是AGI新路徑的曙光。
生成式AI正以摧枯拉朽之勢重塑傳統產業,創新火種從未如此燎原,我們無比期待看到,中國科技企業在時代的浪尖揚帆起航。
(本文系網易新聞•網易號特色內容激勵計劃簽約賬號【智東西】原創內容,未經賬號授權,禁止隨意轉載。)


相關文章