我国网信部门重拳整治网络虚假信息 逾1.3万个违规账号被处置

围绕生成合成内容的传播秩序与公众权益保护,近期网络空间治理力度持续加大。

随着生成合成技术门槛降低、传播链路加速,一些账号在未作显著标识的情况下发布相关视频、图片与音频,导致内容真伪难辨;更有甚者将技术用于“造假、仿冒、炒作、猎奇”,以流量变现为导向突破底线。

网信部门通报的处置情况表明,对破坏网络生态、误导公众的行为将依法依规从严纠治。

一是问题凸显:未标注、假冒与恶意炒作交织,扰乱正常传播秩序。

通报显示,部分账号以虚构“感人救援”“奇闻险情”等情节包装视频内容,在高关注场景中制造情绪共振,却未明确标注为生成合成信息,误导受众并诱导传播;还有账号利用换脸、声音仿制等手段冒用运动员、演员、主持人、企业家等公众人物形象和声音,散布不实言论或售卖“拜年祝福”类内容牟利;另有账号编造火灾等突发事件现场图像视频,借公共安全议题炒作博眼球;针对未成年人群体的“魔改”动画角色、血腥暴力低俗内容亦成为治理重点。

同时,一些账号与网店传播、售卖去除标识教程和工具,企图通过“技术规避”对抗监管,形成链条化灰产风险。

二是原因复杂:技术扩散叠加流量驱动,平台治理与社会认知仍需同步升级。

从技术侧看,生成合成内容的制作成本下降、出图出视频速度提升,使“以假乱真”更易发生;从传播侧看,算法推荐与碎片化消费叠加,夸张猎奇内容更容易获得点击与转发,诱发部分账号铤而走险;从治理侧看,部分发布者对标识义务、侵权风险、公共秩序边界认知不足,甚至将“未标注”视为提升传播效果的手段;从产业侧看,个别商家围绕“去标识”“规避识别”形成牟利模式,客观上助长违法违规行为。

三是影响显著:损害公众知情权,冲击社会信任与公共安全底线。

生成合成信息若缺乏清晰标注,最直接的后果是信息源属性被遮蔽,受众难以判断真假,继而引发误传误信。

对公众人物的仿冒与不实言论传播,不仅可能侵害名誉权、肖像权等合法权益,也容易制造舆论噪音、扰乱正常公共讨论。

对灾情事故的编造炒作,则可能引发恐慌情绪、干扰应急处置与社会秩序。

面向未成年人的低俗暴力内容传播,更会对其心理健康与价值观形成产生负面影响。

长远看,若“真假难辨”成为常态,社会整体信任成本将上升,网络空间公共性和理性讨论基础也将被削弱。

四是对策明确:压实平台主体责任,强化标识制度刚性约束,斩断灰产链条。

网信部门此次督促平台深入排查整治,依法依约处置账号13421个、清理违法违规信息54.3万余条,体现出对“未标注生成合成信息”“虚假不实内容欺骗误导”等问题的高压态势。

下一步治理可从三方面发力:其一,完善发布端提示与强制标注机制,在关键传播节点对生成合成内容进行显著提示,降低受众识别成本;其二,强化对仿冒公众人物、炒作灾情事故、侵害未成年人等高风险场景的专项治理,提升识别与处置效率;其三,围绕“去标识教程、工具与服务”开展链条化打击,推动电商与内容平台联动治理,做到发现即处置、上游即溯源、违规即下架。

同时,应推动创作者合规教育与行业自律,倡导“技术向善、内容守法”的生产准则。

五是前景判断:规范与创新将并行推进,春节等重点时段治理预计持续加码。

节日期间信息需求旺盛、情绪表达集中,生成合成内容更易乘势传播,相关风险也随之上升。

可以预见,围绕标识管理、虚假信息治理、未成年人网络保护与公众人物权益维护等方面,监管与平台将持续提升协同处置能力,形成更稳定的“发现—处置—溯源—曝光”闭环。

与此同时,技术发展本身并非问题关键,关键在于边界意识与制度执行。

随着规则进一步细化、技术识别能力提升、社会认知逐步成熟,生成合成内容有望在合规框架内服务于正当表达与文化创新,但对恶意造假、牟利引流的打击力度也将保持从严。

AI技术的出现为内容创作带来了新的可能性,但也对网络文明提出了新的考验。

此次网信部门的集中整治行动,不仅是对违规账号的处置,更是对整个网络生态秩序的一次重要维护。

从虚假新闻到冒充名人,从编造灾难到传播有害内容,每一类违规行为都在提醒我们,技术进步必须伴随责任意识的提升。

只有当每一个参与者都认识到真实、诚信的价值,才能让AI技术真正成为造福社会的力量,而非破坏网络生态的工具。