2025年12月18日,北京人形机器人创新中心宣布正式开源国内首个且唯一通过具身智能国家标准测试的视觉-语言-动作(VLA)大模型XR-1,同时配套发布数据基础平台RoboMIND 2.0及高保真数字资产数据集ArtVIP最新版本。这一技术突破标志着我国人形机器人从实验室研发向实际场景应用迈出关键一步。
XR-1作为具身智能的”小脑”系统,采用创新的三阶段训练范式:第一阶段通过超百万级虚实多本体数据与人类行为视频构建动作编码体系,将复杂场景转化为可调用的离散指令;第二阶段利用跨本体数据预训练掌握物理世界基础规律;第三阶段针对分拣、搬运等具体任务进行微调。该模型已在天工2.0、UR等多类机器人平台上验证了通用操作知识的迁移能力,在物体颜色、位置干扰等七大泛化维度测试中表现优异。
配套开源的RoboMIND 2.0数据平台整合了多模态数据采集、标注与清洗功能,ArtVIP工具链则优化了虚拟仿真与真实场景的映射效率。这种虚实结合的训练模式显著降低了对物理样机的依赖,使XR-1在工业分拣、物流搬运等场景的任务完成效率达到行业领先水平。
北京人形机器人创新中心同步公开的技术生态还包括通用机器人平台”具身天工”和智能平台”慧思开物”。前者已发布具身天工2.0、天轶2.0等通用本体,后者此前开源了WoW世界模型和Pelican-VL等具身大脑成果。此次XR-1的发布填补了具身小脑技术空白,形成完整的”大脑+小脑+本体”技术链条。
该中心表示,开源战略旨在降低行业技术门槛,推动具身智能回归”能干活、会干活”的本质需求。随着技术生态的完善,预计将加速我国机器人产业向全自主化、场景化方向演进。目前已有企业基于该技术体系开发出适用于复杂环境的服务型机器人解决方案。
© 版权声明
文章版权归作者所有,未经允许请勿转载。