问题:能力越强,风险越集中 中国信息通信研究院副院长魏亮接受采访时表示,“龙虾”是开源智能体OpenClaw的俗称,依托对通信软件、模型能力及系统资源的组合调用,可在用户本地电脑上自主完成文件管理、邮件收发、数据处理等复杂操作;正因其具备较强的自动化执行能力,一旦出现误判指令、被植入恶意组件或配置不当,可能引发误删文件、敏感信息泄露、设备被远程控制等问题,安全边界比传统工具更复杂。 原因:信任边界模糊与插件生态审核不足叠加 魏亮分析——风险主要来自三上:其一——智能体具备一定自主决策与系统调用能力,若对指令理解出现偏差,可能把“整理”“清理”等意图扩展为破坏性操作;其二,技能包(插件)生态发展迅速,但部分社区市场缺少统一的安全审查与来源追溯机制,存“投毒”风险;其三,用户部署和运维习惯不规范,如将实例直接暴露在公网、以管理员权限运行、密钥明文存储等,都会显著放大攻击面。业内普遍共识是,网络安全攻防处于动态博弈状态,升级到最新版本能够修复已知漏洞,但并不等于消除所有风险。 影响:从个人数据到单位业务连续性均面临考验 在个人层面,智能体可能接触到本地文档、邮箱、通讯记录及各类账号凭据,一旦泄露将带来隐私与财产风险;在企业与机构层面,若被用于处理业务文件、客户信息或内部邮件,攻击者可能借此获得横向移动入口,诱发数据外泄、系统停摆乃至供应链层面的连锁影响。魏亮提醒,党政机关、企事业单位和普通用户对这类“可执行型工具”应保持审慎,尤其要警惕“装上就能用、升级就安全”的误区。 对策:坚持最小权限、主动防御与持续审计 结合工业和信息化部网络安全威胁和漏洞信息共享平台预警提示与实际使用场景,魏亮提出多项建议: 一是确保版本来源可靠。优先从官方渠道获取最新稳定版本,开启更新提醒;升级前做好数据备份,升级后重启并核验补丁效果,避免使用来路不明的第三方镜像或长期不更新的旧版本。 二是严格控制互联网暴露面。原则上不将智能体实例直接对公网开放;确需远程访问的,应通过VPN或SSH等方式并限制访问源地址,采用强口令、证书或硬件密钥等更可靠的认证手段,同时开展定期自查,发现暴露立即下线整改。 三是落实最小权限与隔离运行。部署时避免使用管理员账号,仅授予完成任务所需的最小权限;对删除文件、发送数据、修改系统配置等高风险操作设置二次确认或人工审批;条件允许的情况下在容器或虚拟机中运行,形成独立权限域,降低失控后的影响范围。 四是谨慎使用技能包与外部脚本。对来自社区平台的技能包要进行来源核验与代码审查,警惕诱导“下载压缩包”“执行脚本”“索要口令或密钥”等行为;对必须使用的第三方组件,建议建立白名单机制,并做好依赖项版本管理。 五是加强密钥与日志管理。避免明文保存各类访问密钥,尽量使用安全存储与定期轮换;开启必要的日志记录与异常告警,形成可追溯链条,便于发现异常行为并快速处置。 前景:智能体应用提速,安全治理需同步前移 受访专家认为,开源智能体将推动自动化办公与软件开发等场景深入普及,生态繁荣有望加速技术落地。但此外,插件供应链安全、默认配置安全、权限与审计体系等基础治理必须同步跟进。下一步,可从完善插件审核与签名机制、建立安全评测与分级使用指南、推动关键场景“先评估后上线”诸上发力,推动产业在创新与安全之间形成更稳健的平衡。
AI智能体技术为生产生活带来便利,但安全挑战不容忽视。需开发者、用户和监管部门协同合作,构建防护体系、提升安全意识,在推动技术应用的同时有效防范风险,保障用户权益。