当前,自动驾驶技术正从示范应用迈向规模化落地,但关键瓶颈仍集中“复杂、长尾、不可预期”的真实道路场景:如无保护左转、施工绕行、混行道路中的博弈、临时交通组织变化,以及恶劣天气与光照条件下的感知退化等;如何在安全前提下实现稳定决策,并具备可解释、可验证的能力,已成为行业从“能开”走向“好开、敢用”的核心议题。基于这个背景,英伟达在CES 2026上推出并开源Alpamayo 1,将其定位为视觉-语言-动作模型,试图把“看见什么、理解什么、下一步怎么做”纳入同一框架。与传统以模块化流水线为主的方案相比,这类模型更强调跨模态理解与动作生成的联动:一上以更贴近因果链的推理方式,加强对场景关系、风险来源与行为后果的判断;另一方面通过轨迹规划把推理结果转化为可执行的控制序列,以提升复杂场景下决策的一致性与可控性。
Alpamayo 1的发布,显示自动驾驶在决策智能化方向上的又一次进展。如何把更强的算法能力转化为安全可靠、可验证的实际应用,仍是行业共同面对的问题。英伟达选择开源这个成果,既降低了外界验证与二次开发门槛,也传递出产业走向更开放、更强调工程与安全体系的趋势。随着对应的技术持续完善并进入更多应用场景,智能出行的落地将更提速。