问题——产业快速发展与风险外溢并存——治理需求更为迫切。近年——生成式人工智能内容生产、信息服务、智能办公等领域加速落地。国家网信部门数据显示,截至2025年底,累计有748款生成式人工智能服务完成备案,435款生成式人工智能应用或功能完成登记。随着技术扩散,一些问题逐渐凸显:对经典作品的“改编变形”引发版权与人格权益争议;利用“深度伪造”实施电信网络诈骗、敲诈勒索等案件增多;算法定价、差异化推荐带来的“算法歧视”等现象也受到关注。最高人民法院指出,诈骗犯罪手段呈现高度智能化特征。全国人大代表调研也反映,利用实时语音深度伪造实施诈骗的成功率明显上升,给社会治理与司法认定带来新的挑战。 原因——规则供给较为碎片化,难以适配新型生产要素与跨场景应用。一上,现行法律法规对数据、算法、算力等关键要素已有原则性规定和专项制度安排,但整体仍偏“点状分布”。生成内容确权、侵权责任划分、训练数据合法来源、跨境数据流动秩序、模型安全评估与审计等,存在衔接不足、标准不一、执行口径不统一等问题。另一上,人工智能特点是通用性强、迭代快,应用横跨传媒、金融、教育、医疗、制造等领域。传统以行业分割、事后规制为主的治理方式,难以覆盖“研发—训练—部署—运营—迭代”的全链条流程,往往在风险规模化扩散后才被动处置,治理成本随之上升。 影响——制度供给若跟不上,既可能损害公众权益,也会影响产业高质量发展。对个人而言,深度伪造可能侵害名誉权、隐私权和财产安全,甚至冲击社会信任;对市场而言,版权归属不清、合规边界模糊会增加企业经营不确定性,影响投资预期与创新效率;对国家竞争力而言,全球人工智能治理规则正在加速成型,欧盟《人工智能法案》等相继落地,规则制定与标准输出已成为国际竞争的重要一环。谁能更早形成系统、可执行、可迭代的治理框架,谁就更可能在产业生态与国际合作中占据主动。 对策——以系统立法为牵引,兼顾安全底线与创新活力,构建可落地的制度框架。其一,明确权责边界,夯实基础制度。围绕数据合规、算法责任、算力与安全保障等关键环节,继续理清开发者、服务提供者、平台运营者与终端使用者的责任链条,完善告知、标识、审计、投诉处置等机制,推动“谁提供、谁负责;谁运营、谁担责;谁使用、谁守法”形成可执行的规则。其二,坚持分类分级,针对重点风险。借鉴基于风险水平的分级治理思路,结合我国应用场景多、产业链完整的特点,探索“高风险强监管、一般风险重规范、低风险重引导”的制度安排,把监管资源集中投向关键领域、关键环节和关键主体。其三,采取“小切口”先行,提高制度可操作性。对社会关注度高、司法实践亟需统一尺度问题,可通过配套规定、标准指引、司法解释等方式尽快落地,例如生成式内容标识与可追溯要求、侵权与平台责任认定、利用深度伪造实施犯罪的证据规则与定性标准等,尽快形成治理闭环。其四,预留创新空间,完善“容错—纠错”机制。通过监管沙盒、试点示范、合规评估与动态调整等方式,为新技术、新模式提供可控的试验环境,推动“鼓励创新与防范风险并重”的政策协同,避免治理过度抑制技术进步与产业活力。 前景——以法治化治理提升国际合作与规则影响力,推动技术向善、产业向新。随着立法研究加快推进,我国人工智能治理有望从分散应对转向系统集成,从单点管控转向全链条嵌入,从事后处置转向事前预防与动态评估并重。在此基础上,结合我国超大规模市场与丰富应用场景优势,推动形成可复制、可推广的治理经验,提升标准供给能力与国际协作水平,为人工智能更好服务高质量发展提供稳定预期与制度保障。
技术迭代越快,越需要规则托底。加快推进人工智能立法,不是给创新“踩刹车”,而是用可预期、可执行的制度把风险尽量前置处置,把发展空间留出来。让技术在法治轨道上运行,才能把“最大增量”转化为长期优势,使创新更可靠、发展更可持续、社会更安全。