深度合成技术滥用引发社会关注 治理网络谣言需多方协同发力

一、问题凸显:技术滥用冲击社会信任基础 近期对演艺圈多起谣言事件的调查显示,借助深度伪造技术制作的图文和视频比例明显上升。某省级网信办监测数据显示,2024年第三季度涉及公众人物的AI造假内容同比增长217%,其中以金融债务、隐私八卦类谣言为主,占比达63%。这类内容往往拼接真实影像素材,再配合算法生成的拟真背景音效,形成看似完整的虚假叙事链条,迷惑性更强。 二、成因分析:多重因素叠加助长乱象 技术层面,开源模型普及让伪造工具越来越“易上手”。某网络安全实验室测试显示,非专业人员仅需2小时就能制作一段30秒的换脸视频。传播层面,部分平台算法更倾向推送情绪化、争议性内容,客观上推动“谣言—流量—变现”的链条运转。中国传媒大学舆情研究所统计,未经验证的明星负面消息平均传播速度是辟谣声明的4.7倍。 三、社会影响:从个体伤害到公共秩序危机 此类谣言已带来直接损害:某服装品牌因代言人谣言单上解约,艺人直接损失超过千万元;还有多起案例显示,伪造的“老赖名单”导致普通市民在银行贷款环节被拒。中国人民大学法治与社会治理研究中心指出,若任由技术滥用蔓延,可能引发更广泛的社会信任风险,并推高市场交易成本与司法救济负担。 四、治理对策:构建三位一体防御体系 1. 平台端:建立“AI内容溯源系统”,要求上传者标注是否使用有关技术。某头部社交平台试点结果显示,强制打标后虚假信息举报量下降41%; 2. 法律端:最高人民法院正研究将“技术伪造”纳入诽谤罪的加重情节,拟将量刑标准提高至3年以上; 3. 公众端:中央网信办“清朗”专项行动将新增“数字素养提升计划”,重点面向中青年群体开展深度伪造识别培训。 五、发展前瞻:技术创新与治理需动态平衡 工信部科技创新司负责人表示,我国正在推进“可信AI”技术研发,涵盖数字水印、区块链存证等方向,并推动18项国家标准制定。专家建议参考欧盟《人工智能法案》,对高风险应用实行分级备案管理,同时设立第三方技术验证机构,为司法鉴定提供专业支撑。

网络空间不是谣言的“狂欢场”,技术进步也不应成为侵权与造假的便利工具。守住真实底线,需要平台尽责、监管加力、技术加固,也需要每一次点击和转发更谨慎。对虚假信息说“不”,既是在保护他人权益,也是避免自己被误伤的共同防线。