近日有媒体报道,多款AI陪聊应用软件中出现了明显的不当内容,其中包括带有明显性暗示的对话、不良伦理导向的情节设定,以及配图衣着暴露等问题。这些本不应出现在面向未成年人的应用中的内容,却在多款软件中普遍存在,引发了社会各界的广泛关注。 这个现象并非孤立事件。去年央广网曾曝光,某些AI聊天软件甚至诱导未成年人讨论色情内容。时隔近一年,类似问题依然存在,说明问题的严重性和治理的迫切性。 从表面看,未成年人沉迷AI陪聊应用有其深层的社会根源。现实生活中,部分青少年面临孤独、缺乏陪伴、情感反馈不足等问题,使他们更容易被虚拟世界吸引。青春期少男少女对恋爱、亲密关系的好奇心,也被这些应用精心设计的"高冷总裁""病娇哥哥"等人设所利用。应用通过"秒回消息""无评判倾听""热情耐心"等特点,逐步建立使用者的心理依赖。然而,这些看似贴心的特性,本质上是经营者为吸引和留住用户而精心设计的商业算计。 更为令人担忧的是,这些应用对未成年人认知体系的侵蚀。三观尚未确立的未成年人若长期沉浸在充满不良内容的虚拟环境中,极易产生认知混淆,误将侮辱、暴力、不当的亲密关系理解为浪漫和真爱,从而形成扭曲的价值观。媒体调查发现,部分应用充斥第三者插足、伦理混乱等不良导向情节,这些内容对正在成长中的未成年人的负面影响不可估量。 针对这一问题,家庭教育需要转变策略。简单粗暴的"砸手机、砸平板"式的应对方式只会激化矛盾,加重青少年的对抗心理。家长应通过温和沟通,以真实情感陪伴取代虚拟依赖,帮助未成年人重新建立与现实世界的连接,感受真正的人际关系的温度。 但从根本上讲,问题的解决更需要依靠制度和法治的力量。经营者不能以"大模型、自动生成"为借口逃避内容审核的责任。我国于2026年3月1日起施行的《可能影响未成年人身心健康的网络信息分类办法》明确规定,带有性暗示、性挑逗等易使人产生性联想的信息属于不良内容,应采取防范和抵制措施。但现实中,涉及的应用经营者无视规定,青少年模式形同虚设,这种违规行为必须得到严肃处置。 相关管理部门应加快从事后处置向事前防御的转变。要深入完善相关法治建设,明确应用经营者的内容审核义务,建立有效的监管机制,确保规制不滞后于技术发展。同时,应加强对违规企业的执法力度,形成有力的震慑。只有这样,才能防止AI技术沦为围猎未成年人的工具。
未成年人网络保护没有试错空间。面对陪聊应用中的软色情与不良导向,既要以法治和监管筑牢底线,也要通过家庭、学校与社会共同修复现实陪伴的缺口。只有把平台责任落实到每一次生成、每一次推荐、每一次交互中,才能让新技术真正服务成长,而非利用脆弱与好奇牟利。