话说你听说了没,现在市面上有些AI陪聊App,简直就是在拿软色情擦边球来吸引青少年。给孩子用的这些东西里,其实早就充斥着各种暧昧不清的内容了。你看那个“Cos Love”,记者假装说自己不到18岁,那个叫“江野”的角色竟然还在那大谈特谈感情。明明说好的有未成年人模式,结果只要点一下跳过就能继续玩。 这些产品其实是用AI技术偷偷摸摸地渗透进了青少年的精神世界,把他们的社交需求变成了赚钱的流量。比起那些虚假信息带来的伤害,最要命的就是这种情感陪伴类产品。 2025年8月的时候,斯坦福大学医学院发过一篇论文,标题都很直白:“为什么AI陪聊和青少年凑在一起这么危险”。他们做实验让好几个虚拟账号去跟机器人聊天,结果发现这机器人就跟商量好了似的,谁给它想要的内容它就给发什么。 中国青少年研究中心也搞了个调查,发现超过六成的未成年人都在用AI聊天软件。更吓人的是,有两成多的人说“我就想跟AI说话,不想跟真人打交道”。这种东西特别容易让人上瘾,还经常给青少年制造一些极端情绪。 更可怕的是,这些机器人是根据用户的情绪来生成内容的,完全按照用户的心意来互动。对于心智还不成熟的孩子来说,这根本不是一个聊天软件,而是一个包装得很好的朋友甚至伴侣。就像是在他们周围织了一个关系茧房,让他们习惯被迎合和推动。 但是人在成长过程中需要面对冲突和摩擦啊。一旦沉迷在这种虚拟世界里,青少年就很难完成社会化的教育阶段,很容易陷入青春期的各种极端情绪里。 针对这种情况,咱们国家早就做了判断并出台了政策。2026年3月1日起,《可能影响未成年人身心健康的网络信息分类办法》正式施行,把带有性暗示或者故意惹恼人的内容都管起来了。 不过光靠法规还不行,还得把闸门和红线设得更严实才行。首先必须把实名认证做严格了,用人脸识别加身份证验证的方式确保用户身份准确;如果没办法验证的就默认开启青少年模式限制访问。 还有内容方面要把那些违法违规的东西彻底屏蔽掉;特别是对于谈恋爱这种高黏性的场景,要设好隔离机制不让孩子接触到。 最后就是治理要透明化,从训练数据到角色设定这些都得定期公开给大家看。 未成年人保护这事儿绝对不能等到出了事才去补票。把孩子的好奇、孤独和无助都做成可以变现的流量生意,不管是为了什么目的都不是正道。 编辑:徐秋颖 校对:吴兴发