问题——深度合成被滥用,扰乱秩序侵害权益 近年,围绕“换脸”“拟声”等深度合成技术的滥用现象增多:部分不法分子冒用公众人物形象进行引流带货、虚假代言,甚至借助逼真音视频实施诈骗;普通群众也可能不知情情况下被“合成”到虚构场景中,面临名誉受损、隐私泄露、财产风险等多重侵害;数字内容传播速度快、范围广,一旦形成扩散,取证难、止损难,治理的紧迫性随之上升。如何在促进新技术应用的同时守住安全底线,成为今年两会代表关注的议题之一。 原因——技术迭代快与规则碎片化并存,权责边界仍待厘清 全国人大代表、四川省律师协会会长李世亮在会前提交《关于开展人工智能立法工作的建议》指出,我国已初步形成人工智能治理的制度框架:国家层面的发展规划等政策文件明确方向,《网络安全法》《数据安全法》《个人信息保护法》等基础性法律提供支撑,算法推荐、深度合成、生成式服务等领域也已出台部门规章与国家标准,形成对具体场景的规范。 但从系统治理看,现有规范多针对具体问题作“点状”回应,分布在不同部门法与监管文件之中,容易出现规则衔接不畅、适用标准不一、执法协同成本较高等情况。尤其在深度合成内容的识别标识、平台审核义务、技术提供者与内容传播者责任划分、跨平台跨地域取证各上,仍存需要统一的原则性规则与可操作的制度安排。同时,人工智能技术更新快、应用边界不断拓展,对立法的前瞻性与弹性提出更高要求。 影响——既关乎个人信息安全,也关系产业健康发展与社会信任 治理缺位或规则不统一,直接损害公民肖像权、声音权益与个人信息安全,诱发诈骗等犯罪活动,增加社会治理成本;同时也可能使合法合规的创新主体承担不确定的合规风险,影响企业研发投入与产品落地节奏。更深层的影响在于社会信任:当公众对音视频真实性产生普遍怀疑,网络空间的可信传播基础将被削弱,公共讨论、媒体传播、商业活动都可能受到波及。由此,构建统一、稳定、可预期的制度框架,既是安全治理的要求,也是产业高质量发展的重要支撑。 对策——加快上位法统筹,兼顾风险规制与产业促进 针对上述问题,李世亮建议继续推进人工智能立法,在国家层面加快制定具备基础性、统筹性的《人工智能法》,以通用原则与基础制度为牵引,形成更清晰的权责体系和治理路径。其建议重点包括四个上: 一是确立基本原则与基础制度。通过明确人工智能治理的价值取向、适用边界和基本规则,为后续立法、司法裁判与行政监管提供统一依据,增强制度的稳定性与可预期性。 二是统筹发展与安全。在防范系统性风险的同时,为创新活动预留制度空间,避免“一刀切”影响技术研发与产业应用,形成风险分级、分类施策的治理思路。 三是明确生成内容治理方向与责任链条。针对深度伪造、虚假信息、欺诈等突出问题,更厘清技术提供者、平台经营者、内容发布者等主体的合规义务,完善追责路径与证据规则,推动形成“可识别、可追溯、可问责”的治理闭环。 四是为配套制度预留授权空间。通过必要的授权条款,支持国务院及对应的主管部门制定更具操作性的行政法规、部门规章和国家标准,使监管规则能够随技术发展及时调整完善,提升治理的灵活性与执行力。 此外,围绕“人工智能+”行动深入实施,他还建议适时探索重点领域的研发应用促进保障规定,配套税收激励等政策工具,为地方因地制宜出台支持政策提供依据,推动形成鼓励创新与规范治理相结合的政策体系。 前景——以法治化路径提升治理效能,推动技术向善与产业升级 从全球范围看,围绕新技术的治理正在从“事后纠偏”转向“前置规范与全链条监管”。我国推进人工智能立法,有望在统一规则框架下提高跨部门协同效率,降低社会运行成本,增强公众对数字内容的信任度。同时,通过更加明确的合规边界与责任机制,也将为企业创新提供稳定预期,促进关键技术攻关与产业生态完善。随着标识制度、溯源机制、平台审核、行业标准与司法实践逐步衔接,深度合成等技术有望更好服务于文化传播、医疗健康、工业制造等正当应用场景,形成“发展与安全并重”的良性格局。
法律的生命在于回应现实。智能技术的迅猛发展,既是推动社会进步的重要引擎,也在持续向现有法律秩序提出新的挑战。从碎片化规范走向系统性立法,从被动应对走向主动塑造,是数字时代法治建设的必然方向。一部基础性、统筹性的上位法,不仅是技术治理的制度基石,更是在创新与安全之间划定清晰边界的根本依据。如何在立法速度与立法质量之间找到最优解,将是未来相当长一段时间内,立法机关、学术界与产业界共同面对的重要课题。