360億AI晶片獨角獸,裁員15%

放棄訓練,專注推理。
作者 |  ZeR0
編輯 |  漠影
芯東西5月9日報道,據EETimes報道,美國AI晶片獨角獸SambaNova Systems近期宣佈將裁員77人,約佔其500名員工的15%。此次裁員正值該公司偏離最初目標,放棄做AI訓練,轉向完全專注於AI推理。
SambaNova成立於2017年,總部位於美國加州,曾希望為訓練和推理打造基於統一架構的AI晶片,2023年釋出了一款專為大語言模型微調和推理設計的晶片。其上一輪融資是2021年的D輪融資,使其融資總額超過11億美元(約合人民幣80億元),估值超過50億美元(約合人民幣362億元)。
SambaNova發言人稱,該公司做出了一些調整,以適應當前的市場狀況以及從模型訓練到微調和推理的轉變。SambaNova已迅速轉向專注於提供雲優先解決方案,幫助企業和開發者大規模部署開源模型。
在AI訓練市場,英偉達的統治地位難以撼動。相對而言,在AI推理市場收穫客戶可能性更大。隨著大模型服務日益普及,模型推理亟需更高性價比的算力基礎設施,這使得資料中心AI推理晶片市場規模被空前看好。資料中心領域的AI晶片和硬體創企已轉向透過雲端提供對開源大語言模型的API訪問。
SambaNova的目標客戶群是企業市場,他們正嘗試透過雲服務部署基於大語言模型的應用程式來進入推理領域,去年9月首次推出SambaNova Cloud。該公司的軟體棧SambaNova Studio面向企業AI,並隨SambaNova機架式硬體一起提供,用於本地叢集和雲端。
近幾個月來,AI晶片獨角獸SambaNova、Cerebras、Groq,透過自有硬體提供大語言模型token服務。這三家公司最初都專注於為其他雲服務提供商和本地AI計算銷售硬體系統,其中SambaNova和Cerebras仍在銷售硬體系統。
SambaNova平臺搭載其第四代處理器SN40L。SN40L採用資料流架構和三層記憶體架構,提高了AI推理效率。透過整合超大記憶體,單個SambaNova系統即可容納數TB的模型。
根據獨立AI基準測試公司Artificial Analysis的測試結果,SambaNova在DeepSeek R1 671B上平均每秒每位使用者可交付250個token,而使用GPU的提供商平均每秒每位使用者僅交付19個token,這意味著SambaNova的推理效能平均比GPU驅動的系統快10倍以上。
儘管多家AI晶片創企曾披露“超越英偉達”的雄心,並試圖透過提供更具競爭力的價格來打動客戶,但晶片市場競爭非常殘酷,英偉達的生態影響力難以撼動,其他在AI晶片市場上有所作為的供應商也以晶片大廠居多。
精簡團隊、聚焦主線,是近期多家晶片企業為改善業績、增強競爭力的主要手段。隨著企業適應不斷變化的行業競爭和經濟狀況,2025年科技行業的裁員名單預計會變得更長。
來源:SambaNova,EETimes



相關文章