澳大利亚围绕未成年人网络保护的监管举措进入实操阶段。
Meta日前表示,依据澳方对16岁以下人群社交媒体使用的限制要求,已对平台内疑似不符合最低年龄规定的账户进行集中处置,在一段统计周期内累计移除超过54.4万个相关账户,其中Instagram、Facebook和Threads被清理数量分别约为33.1万、17.3万和4万。
平台“重拳清理”的数据,显示企业正试图以可量化的处置结果回应外界对合规执行的关切。
问题在于,封禁数量并不等同于治理闭环。
多家澳媒报道指出,受技术与执行环节制约,部分未满16岁的账户未被识别,或在被封禁后又出现重新激活的情况;新注册环节的年龄认证存在被轻易规避的空间;还有青少年在账号受限后转向其他未被纳入禁令约束或监管触达较弱的平台,导致“此处收紧、彼处外溢”的现象隐现。
由此可见,最低年龄门槛从立法走向落地,核心挑战并非“有没有规则”,而在于“能否持续、准确、可核验地执行”。
造成执行难度的原因,主要集中在三方面。
其一,年龄识别天然存在信息不对称。
平台依赖用户自报年龄或有限的验证手段,若缺少权威、便捷且可规模化的认证机制,监管目标容易在注册环节被绕过。
其二,技术治理与用户行为存在对抗性。
未成年人可能通过更换设备、使用他人身份信息、变更账号资料等方式规避识别,平台的风险模型与拦截策略需要持续迭代。
其三,跨平台迁移降低了单一平台治理效果。
当某些主流平台提高门槛,用户可能转向小众或境外平台,使监管效果被“转移”,并对家庭、学校和社会的协同治理提出更高要求。
从影响看,这一禁令的直接作用在于倒逼平台强化未成年人保护与合规体系建设。
澳大利亚联邦议会通过的《2024网络安全(社交媒体最低年龄)修正案》要求特定社交媒体采取“合理措施”阻止未满16岁者拥有账户,并设定对不配合企业最高4950万澳元罚款的惩戒机制。
高额罚款不仅提高违规成本,也强化了企业在数据治理、内容风控、用户审核等方面的投入预期。
与此同时,澳政府数据显示,禁令生效前当地8岁至15岁青少年中有86%使用社交媒体,说明这一群体的实际需求与社交习惯已相当普遍。
政策若要实现“降风险”目标,需要在保护与使用之间找到可执行的平衡点,避免形成新的灰色使用方式或加剧数字鸿沟。
针对对策层面,监管与平台的责任边界正被进一步厘清。
澳方表态称,将追究社交媒体平台对青少年造成伤害的责任,并指出相关平台出于商业目的大量收集用户数据,“可以、也必须”利用这些信息遵守法律、阻止16岁以下人群进入平台。
换言之,政府希望平台以自身掌握的数据与技术能力承担更强的合规义务。
平台侧则需要在隐私保护、数据合规与身份验证之间进行制度设计:既要提高年龄识别准确性,又要避免过度收集敏感信息引发新的争议;既要完善封禁与申诉机制,降低误伤,也要对重复注册、账户复活等行为形成闭环处置。
展望未来,澳大利亚的最低年龄禁令可能成为其他国家观察与借鉴的样本,其政策效果取决于三个变量:一是年龄验证体系能否形成更可靠的社会化基础设施,例如在不增加过度信息收集的前提下实现可核验身份;二是监管能否覆盖跨平台迁移带来的“外溢效应”,加强对不同类型平台的规则衔接与执法协同;三是社会层面的数字素养教育能否同步推进,使家庭、学校与平台共同降低未成年人在网络环境中的沉迷、欺凌、隐私泄露等风险。
可以预见,随着合规标准细化和技术手段升级,平台治理将从“集中清理”转向更长期的“持续审查与分层管理”,监管也将更强调可审计、可问责的执行证据。
这场涉及技术、法律与教育的复杂博弈,折射出数字时代未成年人保护的世界性难题。
澳大利亚的立法尝试虽具开创性,但执行效果仍有待观察。
正如墨尔本大学网络治理教授艾琳·考克斯所言:"真正的保护不应止步于账户封禁,而应构建包括家庭、学校、企业在内的立体防护网。
"在全球数字治理体系重构的背景下,这项实验或将重新定义社会责任与技术伦理的边界。