谷歌旗下公司负责人警示技术自主性风险 呼吁构建全球治理协作框架

问题:随着人工智能能力持续提升,涉及的风险正从“可控的不确定性”快速演变为“可扩散的系统性挑战”。哈萨比斯指出,当前最需要正视的风险主要来自两个方向:其一,原本用于提升效率与社会福祉的技术被恶意个人或组织滥用,带来网络攻击、虚假信息扩散、诈骗与操纵等安全隐患;其二,系统自主性与独立决策能力增强后,可能出现设计阶段难以预料的行为偏差与连锁后果,从而引发更高等级的安全问题。 原因:一方面——人工智能作为数字技术——复制成本低、传播速度快、跨境流动强。一旦出现漏洞或被恶意利用,外溢效应明显,容易突破以“属地”为核心的传统监管边界。另一方面,模型能力快速迭代、应用场景持续下沉,从科研、金融到公共服务与关键基础设施,人工智能与经济社会运行的耦合度不断加深;系统越“自主”,效率与效用可能越高,但复杂环境中也更容易做出非预期的决策与行为。此外,治理体系与技术进展存在明显“速度差”:监管框架、评估工具、责任界定与跨部门协作机制往往滞后于技术扩散,使部分治理机构在资源、专业能力与响应机制上承受压力。 影响:风险若处置不当,可能在三个层面产生叠加效应。第一,在公共安全与社会信任层面,深度伪造与自动化信息操控可能冲击舆论生态,削弱社会对信息来源与公共决策的信任基础。第二,在经济与产业层面,关键行业对智能系统依赖度上升,若缺乏可靠的安全评估与应急机制,可能导致业务中断、数据泄露,甚至引发供应链风险扩散。第三,在国际治理层面,各国监管尺度与技术标准差异较大,若缺乏最低共识,可能诱发“监管套利”和无序竞争,使风险在跨境流动中被放大,并抬高国际合作成本。哈萨比斯的担忧指向一个现实命题:人工智能影响的人群与范围更广,其影响不会因国界而自然止步。 对策:针对上述挑战,哈萨比斯强调,国际协作不可或缺。关键在于建立政策制定者与技术专家的稳定对话机制,通过多边会议与常态化沟通对齐技术细节、风险评估与治理目标,避免停留在“只谈原则、不谈落地”。在具体路径上,可从三上推进:一是形成技术部署的最低标准,模型安全测试、数据与隐私保护、可追溯与审计、风险分级管理各上设定可执行的底线要求,降低高风险应用的外溢概率;二是补齐治理能力建设,增强监管机构的专业支撑与快速响应水平,推动评估工具、红队测试、事故通报与应急预案等机制制度化;三是明确责任边界与合规链条,推动开发者、部署方与应用方在安全义务、风险披露与事故处置中的责任可追溯,减少“无人负责”的治理空白。 前景:总体看,人工智能将继续在全球范围加速渗透,治理重点也将从“是否使用”转向“如何安全使用、如何负责任使用”。未来一段时期,围绕技术标准、评估方法与合规框架的国际协调预计将更为频繁,最低标准有望成为跨境合作的现实切入点。同时,随着自主性更强的系统出现,风险治理将更强调前置化与体系化:在研发阶段嵌入安全目标,在部署阶段强化监测与审计,在应用阶段建立可解释、可追责、可纠错的闭环机制。能否在创新活力与安全底线之间实现动态平衡,将成为各国政策与产业竞争力的重要检验。

人工智能的发展说明了人类文明的进步,但其潜在风险同样需要严肃对待。在技术创新与安全管控之间取得平衡,离不开全球范围的理性对话与务实合作。各国应当认识到,在人工智能时代,没有任何国家能够独善其身;只有建立有效的国际合作机制,推动形成相对一致的技术规范与治理底线,才能确保该强大技术更好造福人类、降低其被滥用或失控的风险。这既是科技伦理的要求,也是全球治理的现实选择。