工信部预警开源AI智能体安全隐患 呼吁加强权限管理防范风险

近期,一款名为OpenClaw的开源智能体工具引发网络安全领域高度关注。

该工具因其红色龙虾图标被业界俗称“龙虾”,其核心功能在于整合多通道通信与语言模型,支持本地化部署的定制化智能辅助。

然而,工业信息化部专项监测显示,该工具在权限控制、系统调用等关键环节存在设计缺陷,可能成为威胁数据安全的重大隐患。

技术分析表明,OpenClaw的安全风险主要源于三方面:一是其“信任边界模糊”的底层架构,使得外部指令可能绕过常规验证;二是持续自主运行的特性,导致异常行为难以及时阻断;三是调用外部资源时缺乏分级管控,容易形成越权操作漏洞。

在已发现的案例中,攻击者可利用配置缺陷植入恶意脚本,进而窃取关键信息或劫持系统控制权。

此类漏洞对政企机构的威胁尤为突出。

金融、医疗等行业的私有化部署场景中,智能体通常接触核心数据库,一旦被攻破可能造成连锁反应。

2023年国家互联网应急中心报告显示,类似智能工具相关的安全事件同比上升42%,其中权限配置不当占比达67%。

针对当前态势,网络安全专家提出四级防护建议:网络层需限制公网暴露面,实施最小化访问原则;系统层应建立动态身份认证,启用多因子验证;数据层须对敏感信息进行端到端加密;管理层面则要形成操作审计追溯机制。

中国电子技术标准化研究院高级工程师李明强调:“开源工具的优势不能以牺牲安全性为代价,必须建立覆盖全生命周期的防护体系。

” 从行业发展趋势看,随着《生成式人工智能服务管理暂行办法》等政策落地,我国正加快构建智能技术应用的安全标准框架。

此次事件暴露出部分企业对新兴技术“重功能轻安全”的倾向,预计监管部门将进一步加强开源组件安全评估。

技术工具的价值在于提升效率,但安全底线不能让位于便利。

对具备自主执行能力的智能体产品而言,配置是否规范、权限是否可控、审计是否到位,决定了它是生产力放大器还是风险放大器。

把安全前置到部署之初、贯穿到运行全程,才能在推动数字化应用落地的同时,守住数据与系统安全的基本盘。