近日,极佳视界正式开源其具身世界模型GigaWorld-0,该模型凭借高达90%的世界模型生成数据占比,成为业界关注的焦点。此次开源不仅包含模型本身,还同步开放了全阶段训练和推理代码,标志着具身智能领域在数据生成和模型泛化能力上的重大突破。
GigaWorld-0的核心价值在于通过世界模型框架构建高效数据生成引擎,显著降低对真实世界机器人数据的依赖。其生成的多样化、高保真数据覆盖不同外观、光照及物体摆放场景,使模型在未见过的环境中展现出卓越的泛化性能。这一技术路径有效解决了传统视觉-语言-动作(VLA)模型因数据稀缺导致的泛化性不足问题。
值得注意的是,GigaWorld-0与极佳视界此前发布的VLA模型GigaBrain-0形成技术协同。后者作为国内首个利用世界模型实现真机泛化的具身基础模型,已通过3D空间感知增强和结构化推理能力优化,在衣物整理等长序列复杂任务中实现突破性表现。两者结合构建了从数据生成到任务执行的完整技术闭环。
极佳视界的技术进展获得资本市场的持续认可。公开信息显示,该公司于11月完成由华为哈勃领投的亿元级A1轮融资,资金将加速世界模型在工业、服务等场景的落地。公司创始人黄冠博士曾预测,世界模型与VLA、强化学习的协同效应,有望在未来2-3年内推动物理AI达到”ChatGPT时刻”。
此次开源行动将进一步降低行业技术门槛,为具身智能在机器人操作、自动驾驶等领域的应用提供基础设施支持。极佳视界表示,后续将持续优化模型的数据生成效率和仿真逼真度,以应对更复杂的物理世界交互需求。
© 版权声明
文章版权归作者所有,未经允许请勿转载。