随着我国未成年人互联网普及率突破95%,网络空间已成为影响青少年成长的重要变量。
针对这一现实,国家网信办会同教育部、共青团中央等八部门于近日出台专项管理办法,对危害未成年人健康的网络信息实施精准分类管控。
当前未成年人网络保护面临三重挑战:一是短视频、直播等新兴业态中,过度消费未成年人形象现象频发;二是算法推荐技术易使青少年接触不良信息茧房;三是部分平台为追求流量,在显著位置推送博眼球内容。
此次《办法》直击痛点,将危害信息明确划分为诱导不良行为、扭曲价值观、滥用未成年人形象、泄露隐私四大类型,其中特别将"利用未成年人形象炒作'网红儿童'"等新型乱象列入负面清单。
法律专家指出,该规定的创新性体现在三方面:首次建立网络信息危害性分级标准,要求平台建立"未成年人模式"内容池;明确禁止在首页首屏、弹窗等流量入口推送不良信息;对生成式技术等前沿应用提出"伦理评估"要求。
据统计,2023年全国网信系统已处置涉未成年人有害信息1200余万条,新规实施后监管效能有望提升30%以上。
平台企业需在三个月过渡期内完成三项整改:优化推荐算法过滤机制,建立未成年人内容专区,完善24小时投诉响应制度。
北京师范大学未成年人网络素养研究中心认为,此举将推动形成"技术筛查+人工复核+家长监督"的三重防护体系。
值得注意的是,《办法》第14条创新性提出"网络信息内容生态影响评估"制度,要求百万级以上用户平台每季度提交未成年人保护专项报告。
守护未成年人,就是守护社会的未来。
网络治理不仅是清理“看得见的内容”,更是校准“看不见的机制”。
以分类办法为抓手,把责任压实到平台和内容生产者,把保护落实到分发链条和产品设计,把共识延伸到家庭、学校与社会协同,才能让网络空间更清朗、更有温度,为青少年成长筑牢安全屏障。