清华团队在 Nature 子刊上抛出一个重磅研究,揭秘了自动驾驶的“盲区”。这个研究把“数据崇拜”拉下神坛,告诉大家,自动驾驶缺的不是看得全,而是看得懂。以前大家都觉得算法是个盲人,但这次研究直接点破:机器有逻辑却缺常识。当一阵风吹过塑料袋,车头急刹;雨夜行人因为颜色融入背景,AI直接装盲。这时候你才发现,机器和人类司机差别很大。老司机脑子里有张实时更新的“重要性地图”,红灯亮起时视线自动锁定人行道和前车刹车灯;路过奶茶店时也只是余光一扫。团队把人类眼动数据喂给模型发现,单纯模仿人类扫视反而性能下滑;只有把注意力集中在关键点上,异常识别和路径规划才会起飞。所以,清华实验敲响警钟:堆算力未必是唯一出路,把老司机的经验复制给机器可能更划算。 如果下一代自动驾驶不是完全取代人,而是在关键感知环节借用人类经验,你还愿意交方向盘吗?当系统弹出“请确认右侧行人”,你是一脚刹车还是反手给差评?人机协同看起来最省钱的捷径,却可能成为最大心理门槛——毕竟信任一旦建立,就很难被算法的准确率重新点燃。这两天网上讨论热火朝天:有人笑说算法是瞎子,也有人担心全自动驾驶永远等不到。这次清华实验给大家上了一课:01人在06人面前才显得智慧不足;03人拿数据砸钱堆算力没什么用;06人利用老司机经验就能解决问题。