678CHAT AI资讯 英伟达放大招!开源自动驾驶模型Alpamayo-R1,让车先想清楚再踩油门

英伟达放大招!开源自动驾驶模型Alpamayo-R1,让车先想清楚再踩油门

加州圣迭戈讯——在NeurIPS 2025大会现场,英伟达正式推出其首款专为L4级自动驾驶打造的推理型视觉语言动作模型Alpamayo-R1,并同步在GitHub与Hugging Face平台开源。该模型脱胎于今年8月发布的Cosmos-Reason系列,具备同时解析摄像头图像、激光雷达点云与自然语言指令的能力,通过内部多步推理机制生成驾驶决策,被官方誉为“赋予汽车类人常识”的关键一步。

英伟达放大招!开源自动驾驶模型Alpamayo-R1,让车先想清楚再踩油门插图

Alpamayo-R1的核心优势体现在三大维度:

- 端到端统一架构:将视觉感知、语言理解与动作规划整合进单一神经网络,实现三模态联合训练,有效规避传统分模块系统中误差逐级放大的问题;

- 多步推理能力:依托Cosmos思维链技术,模型可在面对“前方车辆紧急制动”或“行人突然横穿马路”等复杂交通情境时,进行因果推演与风险预判,最终输出精准的加速、制动或转向指令;

- 开发者友好生态:所有模型权重、推理脚本及评估基准均集成于名为“Cosmos Cookbook”的工具包中,支持开发者根据具体应用场景进行快速微调与部署。

英伟达首席科学家Bill Dally在发布会上强调:“机器人和自动驾驶正成为AI落地的下一主战场。我们的目标是构建适用于所有智能体的通用大脑。”为加速产业落地,英伟达同步发布了涵盖数据合成、模型评测到后训练优化的全流程技术指南,旨在帮助汽车制造商与Robotaxi运营团队在封闭或半开放区域高效验证L4级自动驾驶功能。

尽管开源策略有望大幅降低整车厂自研高阶智驾系统的门槛,业内分析指出,Alpamayo-R1若要真正走向量产,仍需跨越两大关键障碍:一是通过ISO 26262等车规级功能安全认证,二是满足毫秒级响应的实时性要求。这两项指标不仅是技术挑战,更是商业化的硬性通行证。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/21602.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部