问题:随着未成年人触网年龄提前、线上娱乐与学习场景深度交织,网络空间中夹杂的“低俗化、暴力化、消费诱导化”等内容更易穿透边界,影响未成年人行为选择、价值观形成与隐私安全。
一段带有性暗示或极端言行的短视频、一次以打赏排名为导向的追星动员、一次围观式网暴的情绪宣泄,往往在算法分发与社交传播叠加下迅速扩散,对辨识能力尚未成熟的未成年人形成强刺激与强暗示。
与此同时,利用未成年人形象“摆拍引流”、以“亲子账号”包装牟利、随意公开未成年人学习生活场景等现象时有发生,既触碰伦理底线,也埋下现实安全隐患。
现实呼唤更明确的边界、更统一的尺度,以及可落地的治理抓手。
原因:一方面,互联网内容生产门槛降低、流量变现链条延伸,部分主体为吸引关注刻意制造冲突、猎奇与话题,诱导性内容与“擦边”表达更具隐蔽性。
另一方面,推荐机制以用户停留时长和互动为重要指标,容易放大“情绪化、刺激性”信息的传播效率,使风险信息在未成年人群体中呈现“被动接触多、重复暴露高”的特点。
再者,既有法律法规对未成年人网络保护已有明确原则,但在具体场景中仍存在“难界定、难识别、难执行”的痛点:平台、家长、学校与监管部门对哪些内容属于风险、该如何提示限制、如何落实责任,常常缺少统一可参照的细化标准。
此次办法的出台,正是在多年网络生态治理实践基础上,将原则要求转化为可识别、可操作、可执行的规则体系。
影响:办法首次将可能影响未成年人身心健康的网络信息细化为四大类,涵盖诱导模仿不良行为、对价值观造成负面影响、不当使用未成年人形象、不当披露未成年人个人信息等维度,既覆盖传统风险,也回应新业态带来的新问题。
分类的意义在于把“模糊地带”转化为“清晰标尺”,为平台审核、内容创作、家校引导和执法监管提供共同语言:什么可为、什么不可为、哪些需要限制传播或提示提醒,边界更明确。
更重要的是,办法以制度化方式强化了平台和内容生产者的主体责任,强调不得在首页首屏、热搜、弹窗、榜单等醒目位置呈现相关风险信息,并对推荐机制等提出更严格的安全管理要求,推动未成年人保护从“发现问题再处置”向“源头防控、全链条治理”转变。
对社会层面而言,这既有助于遏制“流量至上”的畸形导向,也有助于形成尊重儿童权益、保护个人信息的网络文明新共识。
对策:办法突出“可执行”和“可协同”两条主线,围绕展示、推荐、标识、管理制度等关键环节形成闭环。
其一,在展示环节强调“显著位置不呈现”,以减少未成年人非主动接触风险信息的概率,尤其是对首页、热榜等高曝光入口提出明确约束。
其二,在技术治理层面,要求平台建立健全安全管理制度,严禁向未成年人推送风险信息,对面向未成年人的专门产品和服务提出更高标准,体现分级分类、精准施策。
其三,在提示机制上细化标注要求,明确内容生产者需在展示前以文字提示、通用符号等方式在显著位置标注,平台应提供专属标识功能并引导规范使用,同时对文本、视频等不同载体的标识位置作出要求,提升提示的可见性与有效性。
提示机制的价值不仅在于提醒未成年人“该不该看”,也在于帮助监护人及时识别风险、进行家庭教育干预,为学校开展网络素养教育提供参照。
其四,治理强调协同共治:监管提供标准与执法依据,平台落实审核与推荐安全,内容生产者守住底线,家校共同提升未成年人识别风险与自我保护能力,形成多方责任共同体。
前景:从更长周期看,未成年人网络保护将进入“标准更细、责任更实、技术更强、协作更紧”的新阶段。
随着短视频、直播、虚拟社交等形态迭代,风险信息的表达方式可能更碎片化、更具隐蔽性,对平台治理能力、算法透明度与合规运营提出更高要求。
办法的实施将促使平台完善未成年人模式、优化推荐策略、加强内容审核与风险提示,推动行业从单纯追逐流量转向兼顾社会责任与长期价值。
下一步关键在于:分类标准如何在不同平台、不同内容形态中一致落实;对新型“擦边”内容与跨平台传播如何形成联动处置;对侵害未成年人形象与隐私的行为如何加大惩戒力度并提高违法成本。
随着配套执法、行业规范与社会监督持续推进,未成年人网络空间有望进一步实现“可见风险更少、潜在风险可控、保护措施可感”的治理目标。
保护未成年人的网络安全是全社会的共同责任。
《可能影响未成年人身心健康的网络信息分类办法》的发布和实施,体现了以人民为中心的发展思想,也反映了我国在网络治理方面的不断探索和完善。
这一办法不仅为监管部门提供了清晰的执法依据,也为网络平台的自律经营指明了方向,更为家庭和学校的教育引导提供了有力支撑。
只有通过政府监管、平台自律、社会参与、家庭教育的有机结合,才能真正为未成年人营造一个安全、健康、向上的网络环境,让互联网成为助力青少年成长的良好工具。