半年完成5億元融資,阿里、蔚來、聯想等投了人形機器人|早起看早期

面向創新者與整合商,逐際動力提供人形機器人本體軟硬體系統和具身Agent開發工具鏈。
黃楠
編輯袁斯來
來源|硬氪(ID:south_36kr)
封面來源企業供圖
硬氪獲悉,具身智慧機器人公司“逐際動力”近期完成A+輪融資,半年累計完成5億元A輪系列融資,在產業和財務方面均獲得頭部機構的戰略支援,多家老股東持續跟投,戰略產業投資人包括阿里巴巴集團、招商局創投、尚頎資本、蔚來資本、聯想創投、彼岸時代、納愛斯集團,知名財務投資人有高捷資本、綠洲資本、明勢創投、峰瑞資本、南山戰新投。
逐際動力成立於2022年,圍繞三大核心具身智慧技術,即本體硬體的設計製造、基於強化學習的小腦全身運動控制和具身大腦模型的訓練策略,聚焦全尺寸通用人形機器人,並衍生了雙足機器人等產品。
多形態雙足機器人TRON 1(圖源/逐際動力)
以全自研核心的軟硬體技術、結合人形基礎模型,逐際動力基於其通用移動操作平臺與具身智慧軟體工具,面向各領域的企業客戶、整合商與個人開發者,提供人形機器人本體軟硬體系統和具身Agent開發工具鏈,推動具身智慧在科研、製造、商業、家庭等領域的廣泛應用。
其中,在機器人的AI探索、演算法研發、硬體設計製造等方面,逐際動力近期均取得了一系列的關鍵進展。
長期以來,訓練資料採集的難題阻礙了人形機器人的規模化落地。具身智慧訓練資料主要包括真實資料、模擬資料和網際網路資料三類,透過大量多樣化且高質量的資料訓練,為機器人自我學習提供支撐,可以提高其任務決策和執行能力,以替代人類完成物理世界的難題。
在各類資料中,網際網路及影片大模型中的海量人類操作影片成本最低,且蘊含豐富的物理常識、行為軌跡及操作決策路徑,但如何有效利用這些資料仍是行業面臨的挑戰,比如人類操作影片無法直接應用於機器人操作,大模型生成的行為軌跡和操作資料存在精度不足、偏離物理規律或產生幻覺等問題,即使資料準確,也難以直接用於機器人操作。
針對上述難題,逐際動力釋出基於影片生成大模型的具身操作演算法(VideoGenMotion,簡稱LimX VGM),透過人類操作影片資料對現有的影片生成大模型進行後訓練,僅需將場景圖片和操作任務指令作為提示Prompts,即可實現任務理解與拆分、物體操作軌跡生成以及機器人操作執行的全流程。
LimX VGM工作流程(圖源/逐際動力)
這一工作流程中,LimX VGM只需要額外採集少量的人類操作影片資料,並從影片生成大模型提取對執行操作任務有用的關鍵資訊,就能轉化為機器人操作策略及行為。這是國內首次實現將人類操作資料直接應用於機器人操作,並且可實現多平臺泛化。
硬體方面,逐際動力推出了最新迭代的高自由度、高靈活性、高穩定性的全尺寸人形機器人,透過腰部自由度的增加,幫助機器人更好地調整重心、改善姿態控制、提高全身平衡,實現更精準的身體姿態控制。
全尺寸人形機器人(圖源/逐際動力)
逐際動力在去年釋出的全球首款多形態雙足機器人TRON 1,採用了“三合一”模組化足端設計,配備雙點足、雙足和雙輪足三種足端,可供不同使用者的差異化場景需求進行快速裝卸、自由組合。
硬氪瞭解到,TRON 1現已完成多個國家和地區的產品交付,初步實現了產品的設計、研發、量產和銷售的商業化閉環。
點選關鍵詞,檢視最近的早起看早期

相關文章