智能驾驶的“人控车”时代徘徊

法律跟不上技术发展,特别是关于智能驾驶的法规还在“人控车”时代徘徊。2021年的《道路交通安全法》修订版勉强覆盖了L2级辅助驾驶,但L3及以上级别却缺乏法律依据。全国人大和北京等地进行了试点,但地方标准各异,导致智能驾驶事故责任认定混乱。没有明确的规则,公众就不敢把生命交给智能汽车。为了明确责任,需要将责任与技术级别挂钩。最高人民法院2025年的指导案例强调,醉酒乘客即使使用L2级辅助驾驶也需承担危险驾驶罪。因此,在L2及以下级别,人仍然是主要责任人。而在L3级自动驾驶中,系统与驾驶员需要协作工作。系统正常工作时,责任由生产商或平台承担;一旦系统发出接管请求,如果驾驶员不响应,可能需要承担责任。北京的《自动驾驶汽车条例》已经尝试了这种分层责任体系。数据透明是解决智能驾驶事故调查问题的关键。事故发生时,关键数据掌握在车企手中。上海嘉定法院2025年的案件确立了标准:消费者索要原始数据需要符合合法性、正当性和必要性。为了确保数据透明,可以强制安装“黑匣子”,让事故回溯像飞机黑匣子一样成为标配。此外还可以引入第三方信托来管理行驶数据。为了让消费者理解智能驾驶的责任边界,企业需要规范宣传。全国人大代表指出模糊宣传是不可取的。监管部门应该明确禁止使用“全自动驾驶”等夸大字眼,要求企业标注自动化等级和功能限制。同时,误导消费者的企业需要承担相应责任。保险也是解决问题的一个途径。保险应该跟上技术发展并配套完善产品责任险和强制保险体系。只有立法、数据透明、宣传归真和保险护航才能让算法在规则轨道中安全进化。