党的二十届四中全会明确提出加强未成年人网络保护的要求;如今网络已成为未成年人学习、娱乐、社交的重要平台,但网络信息的动态性、复杂性和隐蔽性也带来了新的风险挑战。国家网信办会同有关部门印发的《可能影响未成年人身心健康的网络信息分类办法》,是对《未成年人网络保护条例》的重要细化,为营造风清气正的网络生态提供了制度保障。 问题的症结在于网络信息的"灰色地带"。近年来——未成年网民规模持续增长——他们在网络空间接触到的信息极易影响身心健康和价值观。除法律明文禁止的违法信息外,网络空间还存在大量难以界定、但可能对未成年人产生负面影响的信息。这些信息既不属于明确的违法内容,也不完全符合规范要求,长期缺乏明确的分类标准,导致管理难度大、执行不一致。 为此,该办法将法律法规中相对抽象的"可能影响"概念具体化,列举了四大类需要重点规制的信息。第一类是可能引发或诱导未成年人模仿不良行为的信息,涵盖性暗示、网络暴力、诱导损害身体健康等传统风险,也包括不良网络用语、宣扬滥用药物、诱导非理性"饭圈"行为等具有时代特征的网络失范现象。第二类是可能对未成年人价值观造成负面影响的信息,明确将宣扬炫富拜金、畸形审美、读书无用论等内容纳入管理范畴。第三类针对不当使用未成年人形象问题,对利用未成年人摆拍、牟利、打造争议人设等乱象划定红线,保护未成年人免受商业炒作侵害。第四类强调对未成年人个人信息的保护,规制不当披露和使用行为,与《个人信息保护法》和《未成年人网络保护条例》紧密衔接。 这种分类设计既延续了网络信息内容生态治理的总体思路,又结合未成年人身心发展特点进行了深化,特别关注了算法推荐、生成式人工智能等新型应用场景下的问题风险,说明了立法的针对性和前瞻性。 在治理手段上,该办法确立了防范抵制和显著提示两大核心措施。这并非对对应的信息采取简单删除处理,而是体现了更为精细化和具有引导性的治理思路。显著提示要求明确了网络信息生产者、发布者和传播者的提示义务,并通过具体条文详细规定了在文本、音频、图片、视频等不同载体上的技术标准和位置要求,保障提示的强制性和实际效果。这种管理方式既保障了成年人获取信息的合法权益,也为未成年人及其监护人提供了必要的风险警示,有助于未成年人培养对复杂信息的鉴别能力和批判性思维。 该办法更压实网站平台的主体责任,要求将保护措施聚焦于内容分发的关键环节,建立健全内容审核、用户保护、投诉处理等机制。这意味着平台不仅要被动应对监管要求,更要主动承担起保护未成年人的社会责任,在算法推荐、内容分发等环节建立有效的防护措施。
未成年人网络保护既是底线要求,也是系统工程。以更精细的分类、更明确的提示、更可落实的责任链条补齐治理短板,表明了以人民为中心的发展思想在网络空间的具体落点。面向未来,只有坚持依法治理与协同共治并重、技术治理与价值引导并行,才能让网络空间更清朗、让成长环境更安全。