英伟达发布开源自动驾驶模型Alpamayo-R1,L4级具身智能迎来关键突破

在2025年12月1日于美国加州圣地亚哥举行的NeurIPS人工智能大会上,英伟达正式发布了业界首款专注于L4级自动驾驶的开源推理视觉语言动作模型Alpamayo-R1。这一突破性技术旨在为”具身智能”(Physical AI)提供核心技术支撑,推动机器人和自动驾驶车辆实现更高效的环境感知与决策能力。

Alpamayo-R1基于英伟达今年8月推出的Cosmos-Reason推理模型架构开发,首次实现了视觉、语言与动作三种模态的端到端融合。该模型能够同时处理摄像头图像、激光雷达点云及文本指令,通过内置的Cosmos思维链技术进行多步骤逻辑推演后输出驾驶决策。技术团队表示,这种”先思考后行动”的机制赋予了自动驾驶系统类似人类驾驶员的常识判断能力,显著提升了在复杂交通场景中的应对水平。

性能测试数据显示,相较于传统轨迹规划模型,Alpamayo-R1在高难度场景下的规划准确率提升达12%,闭环仿真中偏离车道率降低35%,近距离碰撞率减少25%。实车测试验证了其99毫秒的实时推理性能,完全满足城市道路部署要求。模型参数规模从0.5B扩展至7B时性能持续提升,经强化学习训练后推理质量提升45%,推理与动作一致性增强37%。

为加速技术落地,英伟达同步在GitHub和Hugging Face平台开源了该模型,并推出包含数据整理、合成数据生成及模型评估工具的”Cosmos Cookbook”开发资源包。公司首席科学家比尔·达利强调,这类技术是实现L4级自动驾驶的关键突破,未来将延伸应用于工业机器人、医疗机器人等多个物理智能领域。

此次发布标志着英伟达在自动驾驶技术路线上的战略转型,从硬件供应商向系统级解决方案提供者迈进。业内分析认为,Alpamayo-R1的开源策略有望使其成为自动驾驶领域的”安卓”式基础平台,推动行业整体技术水平的跃升。

© 版权声明

相关文章