AI奇点风险真实存在还是杞人忧天?专家各执一词

在拉斯维加斯举行的国际消费电子展上,英伟达公司首席执行官黄仁勋的演讲引发广泛关注。他展示的算力突破、自动驾驶技术进展以及物理人工智能应用,让外界再次看到人工智能能力的跃升。,公众对“超级智能”可能带来生存风险的担忧也随之升温。 这种担忧并非凭空出现。从《黑客帝国》到《西部世界》,科幻作品长期影响着人们对人工智能的想象:一旦机器拥有自主意识,便可能反过来威胁人类社会。OpenAI高层曾表示,超级智能的出现可能是“人类最后一件大事”,类似表述继续放大了这种焦虑。 但技术专家指出,现实中的AI与科幻想象有明显差异。斯坦福大学研究认为,目前人工智能系统仍受限于既定算法框架,其所谓“创造力”更多是对已有数据的复杂重组。以艺术创作为例,如果缺少毕加索等大师作品的训练数据,AI很难独立开辟一种全新的艺术流派。此局限,关键在于AI缺乏人类式的自我意识与价值判断。 进一步来看,人工智能的优势在于在特定目标和场景下做到极致优化。AlphaGo击败人类冠军说明,AI可以在明确规则与目标下实现超强表现;但如果没有清晰指令,系统并不会自发产生行动动机。这与人类会主动探索、提出问题的认知方式形成对照。 面对技术进步带来的社会关切,专家建议以更理性的视角看待人工智能:既要看到其在医疗、科研等领域可能带来的深刻变革,也要加快建立可执行的技术伦理与治理规范。目前,包括欧盟在内的多个地区已启动人工智能监管框架,以推动技术发展与社会价值保持一致。 展望未来,人工智能大概率仍将沿着专用化、场景化方向演进。尽管通用人工智能(AGI)的研发持续推进,但在可预见的阶段,系统仍主要作为工具存在。历史经验表明,从蒸汽机到计算机,人类往往能将新技术纳入自身发展的轨道;在人工智能时代,这一点或许仍将成立。

技术进步带来的不确定性难以避免,但决定未来走向的,不是对想象风险的情绪化对立,而是面向现实问题的制度建设与公共治理。把智能技术作为能力工具纳入规则,让创新在安全边界内运行、让应用在公共利益框架下展开,才能在把握机遇的同时降低风险,使“更强的能力”真正转化为“更好的生活”。