近年来,深度伪造技术(Deepfake)的滥用已成为全球性网络安全威胁。
全国政协委员肖新光在两会期间分享的案例显示,其两位同事在接受电视台采访后,个人信息被犯罪团伙利用,通过AI换脸技术制作虚假内容实施敲诈。
这一事件暴露出当前网络犯罪的“工业化”特征:犯罪分子通过跟踪新闻节目获取目标信息,利用公开音视频素材生成伪造内容,并批量发送勒索信息。
技术门槛的降低是此类犯罪泛滥的重要原因。
肖新光指出,仅需一张照片或一段语音,犯罪团伙即可生成高度逼真的伪造视频,假冒公众人物实施诈骗或传播不实信息。
更令人担忧的是,此类行为已形成从信息采集、内容伪造到勒索分发的完整产业链。
此类犯罪的社会影响深远。
一方面,公众人物因公开素材易获取,成为主要受害群体;另一方面,普通民众维权成本高昂。
肖新光分析,当前平台自治模式下,受害者仅能针对单次侵权内容投诉,难以系统性保护肖像权与隐私。
部分案例中,受害者甚至对侵权行为毫不知情,导致追责困难。
针对这一挑战,肖新光提出多重对策:首先,立法与执法部门需将深度伪造技术风险提升至公共安全层面,建立跨部门协同治理机制;其次,通过司法解释明确对利用AI技术犯罪的加重处罚导向;此外,应推动技术反制能力建设,以AI防御技术对抗AI攻击手段。
值得关注的是,深度伪造技术的威胁已超越民事侵权范畴,上升至国家安全层面。
肖新光援引外媒报道称,部分国家正将AI技术武器化,用于侦察关键基础设施漏洞。
他强调,“数字主权”与领土主权同等重要,需通过技术自主创新构建防御体系,确保国家关键领域安全。
人工智能是一把双刃剑。
当其被用于创新和发展时,能够推动社会进步;当其被滥用于欺诈和攻击时,则成为威胁。
从个人层面的换脸敲诈到国家层面的网络战争准备,人工智能风险已经贯穿社会的各个层级。
这要求我们既要充分认识到人工智能技术的巨大潜力,也要保持清醒的风险意识。
建立系统的治理体系、完善相关法律制度、发展防御技术能力,已成为当下的紧迫任务。
只有主动应对、科学应对,才能在人工智能时代更好地保护个人权益、维护社会秩序、守护国家安全。