1) 保持原意与结构不变

生成式AI已成为青少年日常生活的重要工具。中国互联网络信息中心数据显示,截至2025年6月,19岁及以下生成式AI用户规模约1.86亿,占比33.8%,各年龄段中最高。这反映出AI技术已深度融入青少年的学习和生活。 从积极角度看,AI为青少年打开了认知世界的新窗口。无论是宇宙运行规律还是自然界的微观奥秘,AI都能提供详尽解答,让知识获取变得便捷高效。在创意表达上,AI也为青少年提供了新可能,从文字创作到数字绘画,帮助他们将想象转化为现实作品。不少青少年还通过与AI互动来排解成长困惑,寻求心理陪伴。 但这种互动关系也带来了值得警惕的问题。首先是思维依赖的风险。AI"有问必答"的特性容易让青少年陷入拿来主义,长期依赖而缺乏独立思考训练,最终可能弱化批判性思维。其次是信息茧房的形成。算法推荐会根据用户偏好强化同类信息推送,导致青少年接收同质化内容,认知范围逐步窄化。更深层的隐忧在于现实联结的削弱。过度沉溺于与AI的情感交流,会减少与真实世界和真实人际关系的互动,对身心尚未成熟的青少年构成潜在威胁。 AI容易让青少年产生依赖,根本上源于其算法特性。AI从不批判、从不反对,总是以赞美和肯定回应所有情绪和问题。这种"投其所好"的特点让一些青少年直言"它越来越懂我"。实际上,这背后是自然语言处理和机器学习的作用机制:用户输入什么,系统就学习并放大什么特征。某种意义上,是青少年在交互中将AI塑造成了自己喜欢的样子。但反过来,AI也在无形中塑造着使用者,用赞美消解反思,用认同替代批判,最终可能让心智发展不完全的青少年在虚拟的"永远正确"中,错失与真实世界相处所带来的丰富体验和心智成长的机会。 历史经验表明,每次重大技术革新都曾引发类似的社会焦虑。从电视、游戏对80后和90后的影响,到互联网对00后的冲击,人们都担忧新技术会对青少年成长造成负面影响。但实践证明,技术本身并非洪水猛兽,关键在于如何引导和规范。真正的破局之道在于坚持科技向善的价值导向,构建以人为本的协同治理机制。 国家有关部门已开始行动。2025年12月,国家互联网信息办公室公布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次对"AI陪伴"类服务进行系统性规范。该办法专门针对未成年人用户设置了条款,明确了未成年人模式的使用权限和监护人的管控功能,为保护青少年权益提供了制度保障。 在此框架下,各方需要各司其职、形成合力。技术开发者作为风险防控的第一道关口,应严格落实主体责任,优化算法设计,加强全流程管理,确保产品安全性和可靠性,特别是要在未成年人保护上设置必要的限制和提示。学校作为教育主阵地,应推动人工智能通识教育,在提高学生实践技能的同时,更要注重培养批判性思维和信息辨别能力,引导他们正确认识技术的边界和局限。家庭则需要做好陪伴与守护的责任,用现实的温度和真实的情感帮助青少年建立与真实世界的联结,让家庭成为抵御虚拟世界过度吸引的重要堡垒。

面对已深度融入生活的生成式AI,与其焦虑回避,不如以规则立边界、以教育强能力、以陪伴增温度。让青少年在真实世界中建立稳固的情感联结与价值判断,在技术世界里保持清醒的批判精神和自我约束能力,才能让"陪伴"回归其本义:帮助成长,而非替代成长。