ai的核心应该是理解物理世界而不是单纯模仿人类

最近AI圈来了个大新闻,Meta前AI大拿杨立昆(LeCun)牵头写了篇论文,直接把“通用人工智能(AGI)”给否了。文章发表在arXiv上,标题就是“AI Must Embrace Specialization via Superhuman Adaptable Intelligence”,也就是“AI得通过超人适应智能来拥抱专业化”。 这事儿还得从2025年说起,那年杨立昆从Meta辞职,干了12年终于出来单干。到了2026年3月,他成立了自己的AI公司AMI(Advanced Machine Intelligence Labs),主攻“世界模型”这条路。这家公司融资挺猛,今年拉了差不多10亿美元,估值也冲到了35亿美元。 论文的核心观点是:人类本身就不是“通用智能”,这是个错误的前提。人类进化出来的视觉、运动和社交能力,其实是针对地球环境的特定解决方案。到了外太空或者微观世界,这些能力就不灵了。既然人类都“偏科”,非要把人类当成AI发展的标杆,逻辑上说不通。 AGI这个词现在被炒作得太过了,其实连个严谨的定义都没有。它到底是跨领域学习,还是复刻人类认知?现在变成了资本和媒体挂在嘴边的标签。老杨觉得AGI不是终点线,而是个虚幻的愿景。 为了纠正这个方向,论文提出了一个新的概念叫SAI(Superhuman Adaptable Intelligence)。这玩意儿和AGI不一样,它不追求“像人”,而是要超越人类。衡量智能的标准不是“能做什么”,而是“学得有多快”。 对于现在流行的“大模型大一统”趋势,老杨泼了一盆冷水。他认为未来的智能应该是专业化模块协同工作的样子,就像医生、工程师和科学家一起工作那样。 AI的核心应该是理解物理世界而不是单纯模仿人类。未来的SAI得通过世界模型和自监督学习来实现真正的推理和规划。 这篇论文的意义在于拆穿了那个被过度简化的神话。AI的终局不是变成人,而是突破人的局限。当AGI的热潮退去之后,真正的智能时代才会到来——那是一个持续进化、无限适应的SAI时代。