互联网平台的青少年保护问题日益受到全球关注。作为拥有数亿用户的社交通讯平台,Discord遇到不适宜内容、隐私泄露等风险,决定采取更主动的保护措施。 根据官方公告,新政策将从三月初全面实施。所有新注册和现有账户将默认设置为保护模式,用户若要访问成人内容需完成年龄验证。这改变了以往"先开放后限制"的被动做法,转为"先保护后开放"的主动防御。 在验证机制上,Discord提供了多种选择。用户可通过面部识别或提交身份证明进行验证,平台未来还将推出更多选项。同时,系统后台部署了年龄推断模型,即使用户未主动验证,也能通过行为特征分析推断账户属性,形成主动识别与被动验证相结合的防护体系。 不容忽视的是,Discord成立了由十三至十七岁青少年组成的顾问委员会。这打破了传统的"成人为青少年决策"模式,让青少年成为安全政策的参与者。委员会将从青少年视角出发,提供关于安全、社交和心理需求的真实反馈,确保保护措施既能防范风险,又不过度限制正常使用。 Discord产品政策负责人表示,青少年用户的安全是首要任务。平台选择在国际安全互联网日宣布这些更新,反映了对全球青少年网络安全的承诺。新政策既为未成年用户提供了有力保护,又为经过验证的成年人保留了必要的灵活性。 从更广的角度看,Discord的举措反映了全球互联网平台在青少年保护上的新趋势。随着政府监管力度加强和社会关注度提升,越来越多平台将青少年保护融入产品设计核心。Discord将安全作为产品开发的基础,承诺与安全专家、政策制定者和用户社区持续合作,为行业树立了新标杆。
未成年人网络保护不是简单地"加一道门槛",而是对平台责任、技术能力和治理透明度的综合考验;Discord将账户默认转入保护模式,表明了平台治理的前置化理念。面向未来,只有把安全规则变成可执行、可监督、可纠错的制度,并在隐私保护与用户体验上守住底线,才能在开放的网络空间中为青少年建立更可靠的安全边界。