随着具身智能成为人工智能的下一个战略高地,底层算力底座的自主可控显得尤为关键。近日,摩尔线程联合北京智源人工智能研究院(以下简称:智源)基于FlagOS-Robo框架,依托MTT S5000千卡智算集群,成功完成智源自研具身大脑模型RoboBrain 2.5的全流程训练。
这是行业内首次验证国产算力集群在具身智能大模型训练中的可用性与高效性,标志着国产AI基础设施在应对复杂多模态任务上迈出了关键一步。通过面向多元芯片的统一AI系统软件栈FlagOS与MTT S5000硬件集群的高效协作,该解决方案不仅“能训”,而且实现了“训得稳、训得快”,为具身智能从实验室走向产业落地提供了坚实底座。
多维评测验证,指标全面对齐
为了检验模型算法效果,智源团队在2D/3D空间感知推理榜单、时序价值评估榜单等多个权威具身评测数据集上进行了验证。结果显示,基于MTT S5000国产千卡训练出的RoboBrain-2.5模型,在多项关键指标上均与国际主流GPU训练模型保持一致。特别是在CrossPoint、Q-Spatial、VABench-V任务上,算法效果表现更优。这种全面对齐的评测结果,表明FlagOS-Robo框架与MTT S5000算力协同训练出的“具身大脑”,在理解、规划和执行能力上已达行业一流水准。

Loss完美对齐,误差小于0.62%
在模型精度方面,基于MTT S5000的夸娥智算集群表现出极高的稳定性。训练曲线显示,MTT S5000千卡集群上的Loss走势与 国际主流GPU训练结果高度重合,相对误差小于0.62%。这一低误差表明国产算力训练准确性的同时,智源FlagOS-Robo框架成功实现了跨平台的无损迁移,开发者无需担心硬件更换导致的模型性能下降,真正做到了“代码不改、精度不降”的平滑适配。
极致线性扩展,千卡加速比超90%
大规模集群训练的核心在于效率。本次训练实测数据显示,摩尔线程MTT S5000千卡智算集群展现了较高的扩展能力:从64卡扩展至1024卡,系统实现了90%以上的线性扩展效率。扩展曲线呈现出极佳的线性增长趋势,这意味着随着算力资源的增加,训练速度几乎同步倍增,充分证明了国产集群在大规模并行计算和通信调度上的成熟度,并具备支持万卡级训练的能力。
此次摩尔线程与智源研究院的深度合作,将进一步加速具身智能从实验室走向产业落地的进程,为行业提供可复制、可规模化的“国产算力训练范式”,为中国具身智能产业提供了一个自主、开放、高效的算力底座。