当前,数字内容生产领域正经历一场关于信任的考验。国家互联网信息办公室最新通报显示,一批通过技术手段生成却未依法标识的违规内容被集中清理,有关账号涉及虚构救援故事、假冒名人牟利、篡改动画形象等多种类型。这些行为看似是技术被滥用,更深层的问题是对公共信任的消耗与占用。问题的关键于,部分内容生产者刻意隐去合成痕迹,把人工创作与机器生成混在一起。典型案例中,“高铁站犬只救人”“宠物拆除爆炸物”等完全虚构的视频,利用对公众共情点的精准把握实现快速传播。这类以情绪为诱饵的流量获取方式,正在影响社会的信息判断机制——观众被不存在的善举打动时,真实被交易的其实是情感与注意力。造成乱象扩散的原因是多上的。合成工具越来越易用,导致门槛持续下降;平台识别难度上升、处置成本增加,一些运营方过度关注用户停留时长,内容审核投入不足。更深层的矛盾在于,现有法规对新型内容形态的覆盖仍有滞后,违规收益与风险不匹配。数据显示,某些平台上去除内容标识的教程售价不足百元,却可能带来数十万次传播。信任被透支后也带来连锁反应。社会认知出现“塔西佗陷阱”迹象,人们面对真实事件也容易先怀疑;未成年人更是重灾区,被篡改的动画形象可能直接干扰其价值观形成。,老年群体在数字鸿沟中的弱势继续凸显,传统依赖声纹、面容的身份确认方式也面临被仿冒冲击的风险。此次专项整治发出清晰信号:所谓“技术中立”不能成为欺骗性内容传播的借口。网信部门采取“穿透式监管”,不仅处置违规账号,也追查背后MCN机构与技术提供方。配套举措包括动态更新特征库、优化算法推荐机制、试点“数字水印”溯源等综合治理方案。中国网络空间研究院专家指出,标识制度不是限制创新,而是建立必要的“阳光规则”,要求技术应用保持应有的透明度。展望未来,建设可信数字环境需要多方协同。立法层面,《网络数据安全管理条例》拟增设合成内容专项条款;技术层面,国家级检测平台建设已纳入新基建规划;行业层面,主要平台正推动联合自律公约。专家建议将数字素养教育纳入国民教育体系,从源头提升公众的信息辨别能力。
信任是数字社会的基础。当AI技术被无底线滥用、虚假信息以近乎零成本方式规模化传播,社会将为这种失序持续付出代价。网信部门此次行动表明,国家正在以更坚决的方式守住这条信任防线。但要从根本上修复数字时代的信任生态,既需要技术企业承担责任、监管部门持续发力,也需要每一位网络参与者保持警觉与理性。唯有如此,我们才能在AI时代继续相信眼睛、相信声音、相信彼此。