機器之心釋出
機器之心編輯部
3 月 29 日,智源研究院在 2025 中關村論壇 “未來人工智慧先鋒論壇” 上釋出首個跨本體具身大小腦協作框架 RoboOS 與開源具身大腦 RoboBrain,可實現跨場景多工輕量化快速部署與跨本體協作,推動單機智慧邁向群體智慧,為構建具身智慧開源統一生態加速場景應用提供底層技術支援。
開源連結如下:
具身多模態大腦模型 RoboBrain
-
GitHub:https://github.com/FlagOpen/RoboBrain
-
Gitee:https://gitee.com/flagopen/robo-brain
-
Huggingface:https://huggingface.co/BAAI/RoboBrain
為機器人操作任務設計的高質量異構資料集 ShareRobot
-
GitHub:https://github.com/FlagOpen/ShareRobot
-
Gitee:https://gitee.com/flagopen/share-robot
-
Huggingface:https://huggingface.co/datasets/BAAI/ShareRobot
增強長程操作任務能力
打造感知 – 認知 – 決策 – 行動閉環

在具身場景中,長程操作任務是機器人執行復雜任務的核心能力之一。具身大腦 RoboBrain 融合了機器人任務規劃、可操作區域感知、軌跡預測的三維能力,透過將抽象指令對映為具象動作序列,增強長程操作任務的能力。
RoboBrain 由三個模組組成:用於任務規劃的基座模型、用於可操作區域感知的 A-LoRA 模組和用於軌跡預測的 T-LoRA 模組。在推理時,模型首先感知視覺輸入,並將輸入指令分解為一系列可執行的子任務,然後執行可操作區域感知和軌跡預測。RoboBrain 採用多階段訓練策略,使其具備長曆史幀記憶和高解析度影像感知能力,進而提升場景感知和操作規劃的能力。
RoboBrain 在任務規劃、可操作區域感知和軌跡預測評測任務中均表現出卓越效能。
在任務規劃方面,RoboBrain 在不犧牲通用能力的前提下,在機器人規劃評測集 OpenEQA、ShareRobot(自建)和 RoboVQA 上多個維度優於 GPT-4V、Claude3 等 6 個當時領先的閉源 / 開源 MLLMs。

RoboBrain 在具身規劃評測基準上的效能
在可操作區域感知方面,RoboBrain 在 AGD20K 測試集上的平均精度超過了當時最先進的開源模型 Qwen2-VL,驗證了其在指令理解和物體屬性方面的卓越能力。

RoboBrain 在可操作區域感知基準上的效能
在軌跡預測方面,RoboBrain 預測的操作軌跡具有與真實軌跡較高的相似度,展現了其在軌跡預測中的高精度和穩定性。RoboBrain 的未來迭代版本會持續提高軌跡預測的能力。

RoboBrain 在軌跡預測基準上的效能
目前,RoboBrain 能夠解讀人類指令和視覺影像,以生成基於即時影像反饋的行動計劃和評估,預測每一步的軌跡並感知相應的可操作區域。具體而言,RoboBrain 能夠有效利用環境資訊和互動物件的狀態 —— 無論是從第一人稱還是第三人稱視角捕捉的影像 —— 生成針對不同型別機器人操作任務的任務規劃,並基於人類指令和視覺資訊,提供合理的可操作區域,並能在不同場景中表現出良好的泛化能力,生成既可行又合理的軌跡。

具身大腦 RoboBrain、小腦技能庫以及跨機器人資料中樞,是跨本體框架 RoboOS 的核心要素。具身大腦 RoboBrain,負責全域性感知與決策,構建動態時空感知、規劃指導和反饋糾錯機制;小腦技能庫,負責低延遲精準執行,實現柔性與精密操作等;跨機器人資料中樞,負責即時共享空間、時間和本體記憶,為決策規劃與最佳化協作操作提供資訊支援,從而形成感知 – 認知 – 決策 – 行動的閉環。
一腦多機實現跨本體協作
從單體智慧邁向群體智慧
跨本體具身大小腦協作框架 RoboOS,基於 “大腦-小腦” 分層架構,透過模組化設計、智慧任務管理和跨本體協作,為機器人提供高效、靈活、可擴充套件的底層支援,實現從單機智慧到群體智慧的躍遷。
在 RoboOS 的分層架構下,具身大腦 RoboBrain 的複雜場景感知與決策能力,可與小腦技能庫的高效執行能力深度結合,確保協作框架在長週期、高動態任務中的穩定執行。實現大腦模型(如 LLM/VLM)與小腦技能(如抓取、導航)的 “即插即用”,目前,可支援松靈雙臂、睿爾曼單 / 雙臂、智元人形、宇樹人形等不同型別的具身本體。
透過共享記憶系統(空間記憶 / 時間記憶 / 本體記憶),實現多個機器人之間的狀態同步與智慧協作,突破傳統 “資訊孤島” 限制,實現跨本體協作控制。
RoboOS 可動態管理多機器人任務佇列,支援優先順序搶佔與資源最佳化分配,確保複雜場景下即時響應,實現高併發任務排程。
此外,RoboOS 可基於執行反饋動態調整策略,結合環境變化,持續最佳化任務規劃,提升魯棒性,做到即時閉環最佳化。
基於 RoboOS 及 RoboBrain 的多機器人跨本體協作遞送任務 Demo
在 “遞送蘋果和水果刀” 的任務場景中,基於 RoboOS 及 RoboBrain,睿爾曼單臂機器人(轉運)、宇樹人形 G1(挑揀水果)、松靈雙臂機器人(挑揀水果刀)分工協作。
整體任務流程是睿爾曼呼叫 “導航技能” 移動至餐桌前,宇樹 G1 呼叫 “視覺抓取技能” 完成指定物體的挑揀,睿爾曼呼叫 “抓取技能” 提起果籃並導航至松靈餐桌前。緊接著,松靈呼叫 “抓取技能” 獲取水果刀,並放置在果籃中心,睿爾曼依據 “空間記憶” 導航至辦公桌位置,遞送果籃後返回待命。
RoboOS 接收 “拿離杯子最近的水果,並遞送一把水果刀” 指令後,遞送 RoboBrain 進行任務拆解,並將拆解後的子任務分發給 3 臺跨本體機器人。RoboBrain 透過 "空間記憶" 感知環境,確定果籃、蘋果位置,並拆解任務為 “宇樹 G1 挑揀蘋果→睿爾曼傳遞果籃→松靈機器人抓取水果刀→睿爾曼返回”。
各機器人本體執行子任務過程中,由 RoboOS 提供端雲協作能力,將任務規劃為技能粒度,實現雲端 RoboBrain 分發規劃,端側執行技能並即時反饋。RoboBrain 識別 “離杯子最近的水果位置”、“果籃抓取位置 affordance”、“水果刀抓取位置 affordance”、“果籃空閒位置 Pointing”,經由 RoboOS 遞送指導各機器人本體完成任務。
“即插即用” 快速輕量化泛化部署
打造統一生態
RoboOS 作為面向多機器人系統的跨本體具身大小腦協作框架,專為解決當前具身智慧落地過程中的通用性適配與多機排程難題而設計。針對異構本體難以統一接入、任務排程效率低、缺乏動態錯誤反饋機制等痛點,基於 RoboOS 的 “大小腦協同” 的架構正規化,雲端的具身大腦 RoboBrain 負責統一的任務理解、規劃決策與上下文感知,本體側則接入輕量級的小腦執行模組,實現感知 – 認知 – 決策 – 行動的閉環協作。
該機制能夠動態感知本體差異、靈活適配操作指令、自動修復異常行為,有效提升系統在複雜任務場景下的魯棒性與泛化性。RoboOS 原生支援異構機器人本體的靈活接入,以 Profile 模板機制快速完成機器人能力建模與適配。
本體的小腦模組可呼叫包括開源技能庫、自研低階控制器等多種技能介面,形成一個支援模組複用、即插即用的執行體系,大幅降低開發門檻與接入成本。
在雲端,RoboOS 提供完備的模型適配與 API 接入能力,相容自研的多模態 VLM,作為可插拔的大腦決策引擎,從而在服務機器人、工業自動化、智慧物流、智慧製造等領域支撐複雜任務的多機協作需求。
藉助 RoboOS 的端雲一體化協同能力與動態排程機制,整個系統不僅具備高度的擴充套件性與可遷移性,更為未來具身智慧的規模部署與生態構建奠定了通用作業系統級的基礎。

RoboOS 基於智源研究院研發的並行訓練與推理框架 FlagScale,原生支援多機器人系統的端雲協同能力,打造具身智慧的統一底座。系統在設計上充分考慮 “多機器人 – 多模態 – 多工” 場景,具備極高的可擴充套件性與低時延響應能力。
在端側部署中,機器人註冊即可自動與雲端部署的 RoboBrain 大腦建立雙向通訊鏈路,透過高效釋出 – 訂閱機制實現即時任務排程與狀態反饋,指令響應延遲低於 10ms,滿足複雜動態任務的閉環控制需求。
面向機器人在長期執行中產生的海量感知與行為資料,RoboOS 提供基於記憶體最佳化的資料訪問引擎,支援 TB 級別歷史資料的記憶體隨機訪問能力,為任務復現、異常回溯、跨任務知識遷移等場景提供基礎能力。結合 RoboBrain 的任務推理與策略最佳化模組,歷史資料還可用於多機之間的協作知識共享,實現更強的智慧演化與自主學習能力。
此外,FlagScale 作為底層支撐框架,支援大模型在多裝置間的並行推理與多工協同排程,可無縫整合視覺語言模型、軌跡生成模組、感知識別等子系統,全面釋放具身大模型的系統潛力。
目前,智源研究院依託多模態大模型技術優勢資源,正在聯合北大、清華、中科院等高校院所以及銀河通用、樂聚、加速進化、宇樹等產業鏈上下游企業,積極建設具身智慧創新平臺,重點開展資料、模型、場景驗證等研究。
此次智源研究院釋出的跨本體具身大小腦協作框架 RoboOS 及開源具身大腦 RoboBrain,將有機融合和廣泛連結不同構型的具身本體與豐富多元的具身模型,加速具身智慧跨本體協作與規模化應用。
開放、協作、共享,是具身智慧生態繁榮的必經之路,智源研究院願攜手更多產業合作伙伴,共繪具身智慧生態藍圖。
© THE END
轉載請聯絡本公眾號獲得授權
投稿或尋求報道:[email protected]