我国出台首个未成年人网络有害信息分类管理办法 八部门联合构筑数字时代"防护盾"

未成年人触网年龄更早、使用频率更高,网络空间已成为其学习交流、休闲娱乐的重要场域。

与此同时,一些信息虽未触及法律法规明令禁止的“红线”,却可能在潜移默化中对未成年人的心理状态、行为选择和价值观形成造成干扰,甚至诱发模仿冲动、非理性消费、网络暴力跟风等问题。

如何对这类界限不易把握的内容建立统一尺度、形成可执行的治理闭环,成为未成年人网络保护走向精细化的关键环节。

此次《办法》出台,正是在制度层面回应现实治理难点,推动从“原则要求”向“操作规范”转化。

问题在于,“灰色地带”内容往往披着娱乐化、剧情化、话题化外衣,传播速度快、变形能力强。

一些内容以夸张摆拍、情绪对立、猎奇吸睛为卖点,将暴力冲突、羞辱歧视、炫富拜金等元素包装成可消费的“流量产品”;还有的通过对未成年人形象的过度利用、恶搞或刻意塑造争议人设来博取关注。

未成年人辨别能力和自控能力相对不足,容易在重复暴露中产生认知偏差或行为模仿。

同时,算法推荐与热榜机制强化了“看得越多推得越多”的循环,使部分不良内容更易形成信息茧房,对未成年人造成持续影响。

加之平台内容体量庞大、传播链条复杂、审核标准不一,导致治理时常陷入“难界定、难识别、难处置”的困境。

从原因看,一方面,过去对相关内容缺乏细化分类标准,不同平台、不同业务线在审核尺度上存在差异,容易出现“同类内容不同处理”的情况。

另一方面,内容生产生态中逐利倾向与流量竞争叠加,一些账号以争议性叙事换取点击与转发,甚至诱导未成年人充值、打赏等非理性消费,形成“内容—流量—收益”的链条。

再者,未成年人个人信息保护仍面临新场景挑战,部分内容在展示学习生活、出镜互动等过程中,可能无意或刻意暴露身份线索,带来被骚扰、被围观甚至被不法利用的风险。

这些因素共同作用,使得“未必违法但可能有害”的内容治理更需制度供给与技术治理同步跟进。

《办法》在分类上抓住关键,将需要重点规制的信息划分为四大类别:一是可能引发或诱导未成年人模仿不良行为的信息,包括带有性暗示、性挑逗等容易引发不当联想的内容,以及指责嘲讽、贬低歧视等涉网络暴力信息、诱导充值打赏等非理性消费内容;二是可能对未成年人价值观造成负面影响的信息,如宣扬奢靡享乐、炫富拜金、消极颓废等不良导向,以及传播畸形审美、低俗恶俗文化等;三是不当使用未成年人形象的信息,涵盖利用未成年人形象摆拍演绎不良价值观剧情、通过恶搞未成年人或打造争议人设吸粉等;四是不当披露和使用未成年人个人信息,尤其强调对不满十四周岁未成年人相关信息展示的审慎要求。

通过列举式与原则性相结合的方式,《办法》为平台识别与处置提供了更清晰的“坐标系”。

在处置机制上,《办法》强调压实内容生产者与网络产品和服务提供者责任,提出更具可执行性的场景要求。

其一,强化内容呈现管理,明确不得在首页首屏、弹窗、热搜、榜单、推荐、精选等醒目位置呈现可能影响未成年人身心健康的相关信息,直指“流量入口”这一关键传播节点,避免不良内容通过强曝光方式触达未成年人。

其二,建立显著提示制度,既明确发布传播者在展示前作出醒目提示的义务,也要求平台提供相应标识功能,引导用户规范提示,推动责任从“单点”向“链条”延伸。

其三,完善技术保障措施,要求提供算法推荐等服务的主体健全安全管理制度和技术措施,不得向未成年人推送相关信息;同时明确任何组织和个人不得在专门面向未成年人的网络产品和服务中传播此类内容,以制度方式守住“未成年人专属空间”的底线。

这些规定的影响将体现在三方面:其一,有助于提升治理的确定性与一致性,使平台审核、内容管理和执法监管有章可循,减少尺度不统一带来的争议与执行成本。

其二,有助于推动平台产品能力升级,从单纯“删除下架”向“分级提示、降低曝光、优化推荐、场景隔离”等精细化治理转变,特别是在算法推荐、热搜榜单等关键环节形成更可追溯、可审计的管理机制。

其三,有助于引导内容供给端回归价值导向,促使创作者在选题、叙事、呈现方式上更重视对未成年人的影响评估,减少以“刺激性”“低俗化”换取注意力的冲动。

落实《办法》,关键在协同共治与“制度+技术+运营”一体推进。

对平台而言,应尽快将分类要求细化为可执行的审核规则与风控策略,完善识别模型和人工复核机制,针对诱导性消费、网络暴力变体、摆拍剧情等高风险领域建立专项治理与常态巡检;同步推进产品改造,确保显著提示标识在相关场景有效呈现,并在推荐、榜单、搜索等环节设置更严格的未成年人保护阈值。

对内容生产者而言,应强化合规意识与行业自律,避免借未成年人形象炒作引流,避免通过话术、玩法或剧情诱导未成年人作出不当行为。

对监管部门和行业组织而言,可结合既有法规规章,完善配套指引与执法衔接,推动典型案例释法说理,形成可复制的治理经验。

同时,家庭与学校的数字素养教育也不可缺位,通过提升识别能力、引导理性表达与健康消费观,增强未成年人自我保护能力。

从前景看,随着《办法》实施在即,未成年人网络保护将进一步从“事后处置”转向“事前预防”,从“单项治理”转向“系统治理”。

未来一段时期,平台的未成年人模式建设、优质内容供给、算法透明与安全评估机制,可能成为治理成效的重要观察点。

可以预期,分类标准更清晰、责任链条更完整、技术措施更可落地,将为构建清朗网络空间提供更坚实的制度支撑,也将促使网络内容生态在发展中更好兼顾创新活力与底线约束。

未成年人是国家的未来,其健康成长关乎社会进步和民族发展。

《可能影响未成年人身心健康的网络信息分类办法》的出台,标志着我国未成年人网络保护法治体系在精细化、科学化方向上迈出了关键一步。

这一办法既体现了对未成年人权益的周全保护,也兼顾了网络产业的发展需求和社会的多元价值诉求。

从2026年3月1日正式施行起,各类市场主体、监管部门和全社会需要形成合力,共同推进《办法》的贯彻落实。

唯有如此,才能真正构建起一个安全、健康、向上的网络空间,让广大未成年人在充分享受网络便利的同时,得到全面有效的保护。