杨立昆称大语言模型难通向“超级智能”并指Meta研究路线趋于保守引关注

当前人工智能产业正面临一个关键的技术路线之争。

被誉为深度学习先驱的杨立昆日前在接受国际媒体采访时,对业界广泛采纳的大语言模型发展道路提出了系统性的批评。

他明确指出,将大语言模型作为实现超级智能的主要路径是一条"死胡同",这一表述在AI科技界引发了广泛关注。

杨立昆的观点源于对现有技术架构的深入分析。

根据其阐述,大语言模型在多个关键领域存在结构性缺陷。

首先是产生幻觉现象,即模型生成虚假或无根据的信息。

其次是非确定性推理能力不足,难以进行严谨的逻辑推导。

此外,对连续多模态数据的处理能力受限,在需要综合视觉、物理数据和语言信息的复杂任务中表现不佳。

这些局限性使得基于大语言模型的系统在涉及自主决策的应用场景中面临重大挑战。

这一技术观点的提出,与杨立昆离职Meta后的职业选择密切相关。

去年11月,杨立昆从Meta首席AI科学家的职位离职,随后创办了先进机器智能实验室,专注于开发"世界模型"等新型AI系统。

这类系统能够从视频、物理环境数据和语言信息中进行综合学习,代表了与大语言模型不同的技术路线。

杨立昆的离职和新的创业方向,在某种程度上反映了他与Meta现有AI战略的分歧。

分析杨立昆与Meta管理层的矛盾根源,可以发现多个层面的问题。

其一涉及人事调整。

Meta新任首席AI官Alexander Wang年仅29岁,此前是Scale AI的联合创始人。

杨立昆在评价这一任命时指出,虽然Wang学习能力强且认知自身知识盲区,但缺乏研究工作经验,对AI研究人员的需求和禁忌了解不足。

这种人事变动可能反映出Meta对AI研究管理方向的调整。

其二关乎研发策略。

Meta CEO马克·扎克伯格的大规模招聘计划继续聚焦于大语言模型的开发。

杨立昆表示,虽然他所在团队曾提出许多具有创新价值的方案,但Meta最终倾向于选择那些"本质上安全且已验证"的方向。

这种保守的选择标准,在杨立昆看来,最终将导致Meta在AI竞争中的落后。

其三涉及信任危机。

去年12月,Meta因涉嫌操纵基准测试以使其Llama 4模型显得更具竞争力而遭到指控。

杨立昆透露,这一事件导致扎克伯格对相关人员"基本上失去了信心",进而"边缘化了整个生成式AI部门"。

这种信任危机进一步加剧了组织内部的矛盾,已有员工离职,更多员工可能面临流失风险。

杨立昆的预警具有现实意义。

他强调,单纯增加数据规模和计算能力并不必然导致AI系统变得更加智能。

这一观点挑战了业界普遍的"规模即智能"的假设。

从科学方法论的角度,杨立昆坚持自己的学术操守,拒绝因为某些人的反对而改变科学判断。

他明确表示,Meta内部包括Alexander Wang在内的许多人可能不希望他对外公开这些观点,但他仍然选择坚持。

从产业影响来看,杨立昆的批评反映出AI技术发展中的一个重要问题:当前业界对大语言模型的追捧是否过度。

虽然大语言模型在自然语言处理、内容生成等领域取得了显著成果,但其在需要真正理解物理世界、进行复杂推理的任务中确实存在局限。

这种技术路线的单一化,可能会限制AI产业的长期发展潜力。

与此同时,杨立昆创办的先进机器智能实验室代表了一条不同的探索路径。

世界模型的开发思路是让AI系统像人类一样,通过对物理世界的观察和交互来获得理解。

这种方向在理论上更接近通用人工智能的目标,但在实现难度和商业化前景上仍需时间验证。

这场由顶尖科学家发起的技术路线辩论,不仅关乎个别企业的战略选择,更揭示了人工智能发展面临的根本性课题。

在商业化浪潮中,如何平衡短期效益与长期突破,怎样构建真正具有理解能力的智能系统,都需要学术界与产业界展开更开放、更深入的对话。

科技发展史告诉我们,突破性创新往往诞生于主流认知的边缘地带。