问题——“黏性设计”与未成年人身心风险的司法化表达 据美国媒体报道,当地时间3月25日,洛杉矶县高等法院陪审团一宗民事诉讼中裁定,Meta旗下Instagram及谷歌旗下YouTube涉及的产品对原告在未成年时期形成过度使用并造成心理健康损害承担责任。陪审团判令两家公司向原告支付共计300万美元补偿性赔偿及300万美元惩罚性赔偿。原告为一名现年20岁的加州女性,其主张自己在成长阶段长期使用相关应用,受到无限滚动、算法推荐、自动播放、提示提醒等功能影响,产生抑郁、社交恐惧以及消极自我认知等问题。该裁决目前引发广泛关注,亦可能进入后续上诉程序。 原因——商业增长逻辑与未成年人保护规则之间的张力 在移动互联网竞争加剧背景下,提升停留时长、增强互动频率是许多平台的核心运营目标。算法分发与界面交互的精细化设计,客观上能够提高内容匹配度与使用便捷性,但也可能放大未成年人自控能力不足、情绪波动更易受外界影响等特点,使过度使用风险增加。近年来,美国社会对青少年心理健康问题的讨论持续升温,多州检察机关、家长团体与学界不断呼吁加强对“面向未成年人产品设计”的约束。同时,美国现有监管体系在平台责任边界、数据与广告合规、年龄识别有效性各上仍存分歧,导致相关争议更多通过诉讼方式集中呈现。 影响——或推动行业合规升级,也带来责任界定新难题 业内人士认为,此类裁决可能在三个层面产生外溢效应:一是促使平台加快完善未成年人模式、默认隐私设置、内容分级与使用时长管理等机制,并强化对算法推荐可控性的内部审查;二是更刺激同类诉讼增长,企业面临合规、声誉与赔付的多重压力,平台投资方向或将从“增长优先”向“安全优先”倾斜;三是引发新的公共讨论,即如何在保护未成年人、维护用户选择权与鼓励技术创新之间实现平衡。特别是对“产品功能与个人行为后果”的因果链条如何认定、惩罚性赔偿适用边界如何把握,均可能成为后续案件的争议焦点。 对策——从“被动应诉”转向“前置治理”的系统安排 多方观点认为,减少未成年人过度使用与相关心理风险,需要平台、家庭、学校与监管机构协同发力。平台上,可产品设计上减少诱导性提示与连续观看机制的默认强度,提升“一键关闭推荐”“夜间与学习时段限制”等功能可达性,并以更透明方式披露未成年人内容分发的基本原则与风险控制措施。监管上,可推动形成更可操作的行业标准,对年龄识别、默认隐私、广告投放与数据收集设定更明确要求,同时为企业合规提供稳定预期。教育与公共服务方面,应加强数字素养教育与心理健康支持资源供给,帮助未成年人建立健康的内容使用习惯,并为家庭提供更易用的监护工具与指导。 前景——平台治理进入“设计责任”时代,规则博弈仍将延续 分析人士指出,随着社会对未成年人网络保护关注度上升,围绕“算法与界面设计是否构成可归责的风险制造”的讨论将更趋常态化。未来一段时期,美国相关案件可能继续推进,并对立法与行业规则产生反馈效应。对全球互联网产业而言,这类裁决发出明确信号:未成年人保护已从内容管理扩展到产品机制与商业模式层面,企业需要以更高标准审视“可用性”“黏性”与“安全性”的关系,把风险控制嵌入研发与运营全流程。
此判决凸显了保护未成年人网络健康的重要性。在追求技术进步的同时,平衡商业利益与社会责任至关重要。只有通过法律、技术和伦理的多方协作,才能构建更安全的网络环境,真正实现科技造福社会的目标。