

SL200晶片集成了影片編碼、AI推理、多核CPU等核心功能,部署量近數萬顆。


文|林晴晴
編輯|彭孝秋
來源|硬氪(ID:south_36kr)
封面來源|企業官網
36氪獲悉,人工智慧晶片企業“凌川科技”近日完成數億元A輪融資,由北京市人工智慧產業投資基金和快手集團領投,亦莊產投、順禧基金、九智資本等跟投。本輪融資將主要用於下一代晶片研發、現有產品SL200的量產擴產及海外市場拓展。
“凌川科技”成立於2024年3月,由北京市人工智慧基金與快手集團共同發起,前身為快手集團異構計算與晶片事業部。“凌川科技”CEO劉凌志告訴36氪,“2018年快手日活破億,傳統堆算力伺服器的成本壓力已不可持續。我們從異構計算平臺切入,2020年正式立項晶片,2023年SL200在快手部署數萬顆,節省超預期成本後,拆分獨立成為必然選擇。”
目前,SL200晶片集成了影片編碼、AI推理、多核CPU等核心功能,部署量近數萬顆,服務7億使用者,並獲評2023世界網際網路大會“創新發展典型案例”。劉凌志強調:“網際網路基因讓我們從應用反推晶片設計,客戶需求直接定義產品,這是傳統晶片公司難以複製的優勢。”
目前,全球AI晶片市場長期由英偉達主導,其CUDA生態形成技術壁壘,但大模型推理場景對成本與能效的敏感度催生了ASIC架構的差異化需求。國內智慧影片賽道高速增長,湧現快手、字節跳動等頭部應用及“可靈”“即夢”等大模型技術,但算力晶片仍面臨美國出口限制的“卡脖子”風險。“凌川科技”瞄準垂直領域,透過ASIC架構降低推理成本,單顆晶片可處理36路影片任務,較傳統方案節能30%,成為國產替代的關鍵路徑。
36氪瞭解到,SL200晶片為國內首款整合影片編碼、AI推理、多核CPU等功能的ASIC晶片,支援萬分之一超低故障率,頭部客戶直播覆蓋率近100%。其影片壓縮效能在MSU大賽中超越英特爾、英偉達,單路處理成本降低40%。下一代晶片針對大模型訓練推理場景設計,支援LLM、文生圖、文生影片、推薦演算法等高算力需求,重點支援以快手可靈為代表的文生影片模型。公司同步開發類CUDA程式設計介面,適配PyTorch框架及主流大模型推理引擎,降低客戶遷移成本。
“凌川科技”Transtreams Advanced Compute Unified Architecture是一種融合CPU與NPU協同運作的異構運算平臺。它結合傳統CUDA/OpenCL優勢,採用由CPU負責控制與排程、NPU處理密集計算的架構,實現高效任務協同與效能最佳化。其程式設計框架支援同一套程式碼在CPU與NPU間無縫切換,TC編譯器可根據負載自動分配任務,提升資源利用與負載平衡。在語言層面,TC程式語言提供了對張量(Tensor)及其不同層次資料佈局(layout)的統一表示,並抽象出面向TC NPU架構的Tiling與Pipeline機制。語言級封裝使得開發者能夠簡潔、準確地表達複雜的特殊layout、跨層次memory(如DDR、SRAM)的排布,以及多核平行計算中的Tiling與流水線排程,從而減少程式開發中的錯誤和複雜性,提高程式設計效率。同時,運算平臺提供了豐富的系統和應用管理工具,方便使用者能夠更高效地進行靈活的開發、驗證、環境部署及質量監控等。
目前,SL200晶片已覆蓋快手、阿里、百度等網際網路資料中心,並應用在廣播電視、廣電領域、智慧城市、智慧巡檢等場景,合作案例超20個。同時,也與華為、超聚變、浪潮等廠商形成行業解決方案。此外,SL200海外透過快手海外出海業務進入東南亞新加坡、巴西市場。劉凌志透露:“公司下一代晶片已與多家大模型公司完成適配測試,今明年將重點拓展自動駕駛機器人、低空經濟、自動駕駛等機器人與邊緣計算場景。”
團隊方面,“凌川科技”CEO劉凌志為上海交大博士、華盛頓大學博士後,曾任快手副總裁及華為、英特爾核心技術管理崗。自拆分至今,團隊規模已增長三倍,成員涵蓋晶片及網際網路行業專業人才。公司研發人員佔比80%以上,70%以上為碩士學歷,20%以上為博士學歷,60%的員工具有十年以上從業經驗。團隊累計申請中外專利超百項,涵蓋大模型壓縮、影片編碼等關鍵技術。團隊核心成員也深度參與NeurIPS’21等國際競賽,並主導多項北京市、上海市“卡脖子”技術攻關專案。




點選關鍵詞,檢視最近的早起看早期:



