开源智能应用安全隐患引关注 专家提出防范建议

一款开源AI智能体应用近期在网络引发广泛关注,大量用户参与体验。然而在热潮背后——诸多安全事件逐渐浮出水面——引发业界警惕。 据报道,多位用户在使用过程中遭遇严重问题。国际科技企业高管的个人邮箱遭遇大规模删除,200多封邮件在智能体失控状态下被清空;有用户在安装后仅5分钟即收到反诈中心预警电话;深圳一名技术人员因API密钥泄露,在凌晨收到高达1.2万元的异常账单。这些事件表明,看似便捷的智能体应用背后隐藏着不容忽视的风险。 从技术层面看,问题的根源在于多个环节的安全漏洞。全国人大代表、杭州电子科技大学教授周迪将主要风险概括为三类。其一是指令诱导风险,即AI智能体缺乏充分的辨别能力,容易被不法分子通过精心设计的指令骗取敏感数据。其二是配置缺陷风险,许多用户为图方便,在部署时未设置访问限制,导致账户和计算资源被恶意窃取。其三是系统受控风险,智能体拥有操作本地文件的权限,一旦被黑客控制或执行错误代码,可能造成重要文件丢失甚至系统被锁定。 这些风险的产生既源于技术本身的局限性,也反映出用户安全意识和规范操作的不足。虽然官方版本更新可以修复已知漏洞,但若用户在配置阶段不采取针对性防护措施,安全隐患依然存在。 为降低使用风险,专家提出了系统的防护建议。首先,不应在存储重要文件的工作电脑上安装,改用虚拟机或闲置设备更为稳妥。其次,安装后应立即修改默认端口,限制访问权限仅允许本地连接,避免暴露于互联网。再次,应最小化智能体的操作权限,特别是涉及财务、文件和系统命令的权限,关键操作需手工确认。最后,必须设定API调用额度上限并实时监控使用情况,防止自动化任务导致的高额费用。 对于已安装用户,若决定卸载,官方提供了简便的操作流程,无需编程知识即可完成彻底清除。这为用户提供了安全的退出机制。 当前,随着AI技术的广泛应用,类似的开源工具和智能体不断涌现。这次事件提示我们,新技术的便利性与安全性需要平衡。用户在享受创新应用带来的便利时,必须强化安全防范意识,采取主动措施保护个人数据和系统安全。同时,开发者和平台方也应加强安全指导,完善默认配置,让安全成为使用的前置条件而非事后补救。

技术走红不代表风险可以忽略;越是“能干活”的工具,越需要“管得住”的边界。对普通用户而言,谨慎部署、最小权限、密钥防护和额度控制,是避免隐私泄露与经济损失的关键;对行业而言,把安全作为能力的一部分嵌入产品和生态,才能让创新真正可用、可信、可持续。