信通院提示防范开源AI智能体安全风险 专家建议非专业用户谨慎应用

问题——技术热度上升与安全隐患并存。近期,开源智能体“龙虾”因可编排自动化任务流、提升效率等特征而快速“出圈”,部分行业场景中被尝试用于数据处理、流程编排与工具调用。然而,随着部署规模扩大,其安全边界模糊、权限配置不当、对外暴露等问题逐步显现,带来数据泄露、被恶意调用、业务系统被入侵等潜在风险。如何在鼓励创新应用的同时守住安全底线,成为业界关注焦点。 原因——开源扩散叠加“低成本部署”放大误用空间。余晓晖在博鳌亚洲论坛“AI:数智赋能产业升级”分会现场接受采访时表示,对应的风险监测工作一直在进行,早在2月份已注意到相关情况,但当时未对外发布,也未预判到后续社会关注度和传播速度。分析人士认为,开源工具传播链条短、复制成本低,叠加社交平台教程化传播,容易推动快速部署;同时,智能体通常涉及多工具调用、多权限协同与外部接口连接,一旦缺乏安全基线与审计机制,便可能出现“为了好用而放开权限”“为了联通而暴露端口”等操作,风险随之叠加。此外,部分使用者对网络边界、权限最小化、密钥管理、日志审计等基础安全要求认识不足,也增加了误配置概率。 影响——短期带来可观效率红利,长期考验安全治理能力。从积极上看,智能体类应用流程自动化、辅助研发、运营支持等环节具备一定价值,有望降低重复劳动、提升组织效率,并推动相关工具链和生态发展。但从风险外溢看,一旦被不当部署并连接到企业内网、业务系统或敏感数据源,可能引发数据合规风险与供应链安全隐患,影响企业正常经营与行业信任;若漏洞与配置问题被黑灰产利用,可能更演化为更大范围的网络安全事件。对监管与行业治理而言,这也提出一个现实课题:在新技术快速扩散时,风险提示发布的时机、范围与表达方式,如何既有效预警又避免“因噎废食”,需要更精细的平衡。 对策——监测预警与行业规范并举,推动“可用”向“安全可用”升级。余晓晖表示,面对这类技术既有价值又伴随潜在风险的情况,下一步也在思考是否应更早向社会披露提示信息,以便各方提前采取防护措施。此前,中国信通院已多次发布风险防范提示。工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)也对安全使用提出建议,并将要点归纳为“六要六不要”,包括定期自查是否存在互联网暴露情况、避免将智能体实例直接暴露到互联网等。业内普遍认为,面向智能体的安全治理需从“单点加固”转向“全链路控制”:一是建立默认安全配置与最小权限模型,关键操作需多重校验;二是完善密钥、令牌与接口调用的生命周期管理,防止凭证泄露与滥用;三是加强审计与可追溯能力,做到可观测、可定位、可处置;四是推动形成适配智能体的新型安全测评方法与分级分类指引,为企业选型、部署、运维提供可执行标准。 前景——技术门槛仍在,产业化需要“产品化+规则化”双轮驱动。余晓晖同时提醒,相关技术实际使用门槛相对较高,部署、配置与安全运维均需专业能力支撑。对于缺乏专业背景的用户,可保持审慎,先行观望,等待市场出现更可靠、更“干净”的产品形态以及更成熟的配套工具与治理规范。展望未来,智能体应用要走向规模化落地,关键在于将“开源能力”转化为“工程化产品”:一上通过标准化部署、自动化安全检查、内置风险控制降低使用门槛;另一方面在行业侧形成更明确的合规边界与责任划分,推动从“能跑”到“可控、可管、可审”的升级。随着安全能力和产业规范逐步完善,智能体在制造、政务、金融、科研等场景的应用潜力仍有望持续释放,但安全底线必须同步夯实。

技术创新是推动社会进步的重要力量,但安全始终是不可逾越的底线。"龙虾"事件再次警示我们,在享受技术红利的同时必须重视风险防控。未来如何平衡发展与安全,需要行业共同探索。