內地GPU四小龍之一的摩爾線程,聯合北京智源人工智能研究院,成功完成智源自研具身大腦模型RoboBrain 2.5的全流程訓練。是行業內首次驗證國產算力集群,在具身智能大模型訓練中的可用性與高效性,標誌著國產AI基礎設施,在應對複雜多模態任務上,邁出關鍵一步。

報道指,今次訓練依托摩爾的MTT S5000千卡智算集群,方案實現"訓得穩、訓得快",將進一步加速具身智能從實驗室走向產業落地的進程,為行業提供可複製、可規模化的"國產算力訓練範式",為中國具身智能產業提供一個自主、開放、高效的算力底座。

RoboBrain是智源面向真實物理場景,打造的通用具身大腦,以統一的視覺—語言多模態架構,為機器人在感知、認知、推理與決策上的核心能力,提供基礎支撐。RoboBrain 2.5在原有通用具身大腦的基礎上,新增機器人對動作時序價值評估,和三維空間結構的理解與推理能力,顯著提升下游任務執行成功率。

報道指,基於摩爾MTT S5000國產千卡訓練出的RoboBrain 2.5模型,在多項關鍵指標上均與國際主流GPU訓練模型保持一致,訓練出來的"具身大腦",在理解、規劃和執行能力上,已達行業一流水準。在模型精度方面,基於MTT S5000的智算集群,表現出極高的穩定性,開發者無需擔心硬件更換導致的模型性能下降,真正做到"代碼不改、精度不降"的平滑適配。

實測顯示,摩爾線程MTT S5000千卡智算集群,展現較高的擴展能力:從64卡擴展至1024卡,系統實現90%以上的線性擴展效率,呈現出極佳的線性增長趨勢,這意味著隨著算力資源的增加,訓練速度幾乎同步倍增,充分證明國產集群在大規模並行計算和通信調度上的成熟度,並具備支持萬卡級訓練的能力。