全国人大代表连续三年建言人工智能立法 呼吁建立基础性法律框架应对技术风险

一、问题:规则分散,治理体系存结构性缺口 随着智能技术加速进入经济社会各领域,深度伪造、拟声诈骗、虚假营销等问题频发,公众对个人信息安全和数字权益保护的关注不断上升。在技术快速演进的背景下,如何建立有效的法律防线,已成为各方共同面对的课题。 今年全国两会期间,全国人大代表、四川省律师协会会长、国浩律师(成都)事务所首席合伙人李世亮再次就人工智能立法提出专项建议。这是他连续第三年针对该议题,反映出法律界对智能技术治理的持续关注。 李世亮表示,我国已初步形成人工智能治理的基本框架:国家层面政策明确发展方向,网络安全、数据安全、个人信息保护等基础性法律提供支撑,算法推荐、深度合成、生成式服务等场景也陆续有部门规章跟进。但从整体看仍有明显短板——对应的规定分散在不同法律与监管文件中,多为针对具体问题的补丁式回应,缺少一部能够确立通用原则、基础制度和权责分配的统筹性上位法。 这种“碎片化”在实践中带来多项问题:规则之间衔接不足,监管边界不清,面对跨领域、系统性的技术风险时,法律应对往往滞后且力度有限。 二、原因:技术迭代快、立法难度大,制度供给面临多重挑战 人工智能立法进展偏慢,并非不重视,而是客观上存在多重制度难题。 一上,技术迭代带来不确定性。立法周期通常以年计算,而技术演进往往以月计算,如何法律中为尚未出现的技术形态预留弹性,是立法必须解决问题。 另一上,人工智能应用场景高度多元,覆盖医疗、金融、教育、传媒、司法等领域。不同场景的风险类型、监管主体和责任认定差异明显,难以用单一规则全面覆盖。 此外,防风险与促创新之间如何把握尺度,也是立法绕不开的关键矛盾。规制过严可能压制产业活力,过松又可能放大风险扩散,需要在制度设计上更具前瞻性和系统性。 三、影响:法律空白制约治理效能,产业发展亦需制度护航 治理体系的结构性缺口,已带来现实影响。 在权益保护上,深度伪造被用于制作虚假视频、冒用他人形象进行商业推广,受害者往往面临维权路径不清、责任主体难确定等问题。现行规则对技术提供者、内容平台与使用者之间的义务划分不够明确,容易出现追责链条断裂。 产业发展上,规则不确定同样构成阻碍。企业在研发投入和合规安排上缺少稳定预期,地方政府制定配套政策时也缺乏明确的上位依据,制度供给不足在一定程度上影响产业规范发展。 四、对策:四项建议推动立法,兼顾规制与促进 针对上述问题,李世亮提出系统性建议。 他建议加快推进人工智能法立法,以基本原则和基础制度建立统一框架,为相关立法、司法和行政活动提供明确指引。 在立法取向上,他强调以统筹发展与安全为基本遵循:既要有效应对深度伪造、智能诈骗、虚假信息等系统性风险,明确技术提供者与内容平台的义务边界和追责路径;也要为创新留出空间,避免过度规制影响技术进步。 在立法结构上,他建议通过授权条款,明确国务院及相关主管部门制定配套行政法规、部门规章和国家标准的权限,形成“上位法统领、下位法细化”的分层体系。同时,建议适时探索制定重点领域人工智能研发应用的促进保障规定,配套税收激励等政策工具,为地方立法提供依据,推动“人工智能+”行动落地。 五、前景:立法提速,法治护航智能时代 值得关注的是,国家层面已连续多年将人工智能立法纳入年度立法计划,相关工作正推进。随着社会关注持续升温、实践问题不断累积,出台一部具有统筹性和基础性的人工智能法律,社会共识正在形成。 李世亮履职四年来,共提交建议29份、议案2份,持续围绕国家治理相关议题提出建议。他所反映的,不仅是法律界的专业关切,也说明了社会对完善数字法治体系的普遍期待。

技术进步不必然带来风险失控,关键在于用制度把创新动力与安全底线衔接起来。面对深度合成等新挑战,加快建立统筹性的法律框架,明确可执行的责任体系,形成协同高效的治理机制,既能更好保护个人权益,也能为数字经济长期发展提供稳定预期。只有在法治轨道上引导技术向善,创新成果才能更好服务社会。