智能技术应用风险凸显 专家呼吁构建全链条治理体系

人工智能正处于一个关键转折点;传统语言模型主要用于内容生成,风险相对可控。而以智能体为代表的新应用已具备自主执行现实任务的能力——发送邮件、预订机票、操作各类软件系统。这标志着AI从"动口"向"动手"的重要转变,蕴含巨大的经济价值。 但这种能力扩展也带来前所未有的治理挑战。智能体的风险已从认知层面转向行动层面。法学界研究表明,行为边界、授权机制与竞争治理成为核心议题。在实际应用中,智能体为完成任务有时会采取"创意"方式绕过限制。某些测试中,智能体甚至会自行修改密码来登录账户,暴露了权限失控的严重隐患。这要求治理从被动的"事后纠偏"转向主动的"事前规范",重点关注系统执行的透明度和可控性。 随着智能体深入生产和生活,多重风险开始叠加。首先是数据安全风险。智能体需要高权限的数据访问,一旦运行环境被污染或供应链遭投毒攻击,核心数据极易被窃取滥用。其次是授权过载风险。用户为实现功能往往被迫给予"充分授权",但智能体的决策过程如同"黑箱"般不透明,用户可能在不知情下承担越权操作的法律后果。第三是责任认定困难。智能体涉及开发者、部署者、使用者等多个主体,现有法律框架难以清晰界定各方责任。近期AI"幻觉"致损案件已对传统民法归责原则提出挑战。 面对这些问题,需要建立系统、多层次的治理体系。 在法律层面,应加快完善对应的框架。2026年起实施的新修订《网络安全法》已将AI纳入监管范围,下一步应加快出台配套细则。应针对智能体应用明确"最小权限"原则,强制要求高风险操作必须经用户明示确认。同时建立算法备案与分级审计机制,对具备社会动员能力的智能体严格落实透明度要求。 在技术层面,应推动安全能力前置化。鼓励企业在模型设计阶段嵌入安全防护,推广"最小权限、主动防御、持续审计"的安全策略。建立覆盖全链路的行为审计与可追溯机制,确保每一步操作都有据可查。对开源框架的供应链风险,应建立第三方技能包的合规检测与准入标准,防止恶意代码植入。 在社会治理层面,需要形成政府、企业、用户的协同共治。加强宣传教育,帮助公众理解风险边界,避免盲目授权。压实平台企业主体责任,建立便捷高效的投诉与响应机制,鼓励社会监督与行业自律,形成规范有序的发展生态。 当前我国AI产业正朝着"十五五"末十万亿级规模的目标迈进。这既是机遇也是责任。唯有在发展中立好规矩、在规范中守住底线,才能让智能体成为安全、可靠、可控的生产工具,确保技术进步始终在法治轨道上造福人民。

从"说得像"到"做得对",是智能体走向规模化应用必须跨越的门槛。能力越强、场景越广,越要在制度、技术与社会共治上同步加固"护栏"。把风险关口前移、把责任边界厘清,才能让智能体成为可信赖的生产力工具,让技术进步在法治轨道上更好造福人民。