光教会孩子怎么用工具不行,还得教他们怎么判断好坏。

咱们之前都见识过吧,遇到不会做的题,孩子就直接掏出手机拍照搜索答案。这种做法让周路路、魏进平和王志强这些专家都挺担心的,感觉这AI是要把孩子的思考能力给废掉。比如衡水学院的周路路就提到,光教会孩子怎么用工具不行,还得教他们怎么判断好坏。天津师范大学马克思主义学院的魏进平也指出了问题所在,小甲、小乙这些学生平时用AI做作业都很顺溜,可到了真正考试的时候没了工具辅助,面对基础题都傻眼了。 除了削弱思考能力,这技术还带来了信息茧房的问题。像河北省科学院应用数学研究所所长王志强就说过,AI生成的内容有时候特别逼真,能把真的假的混在一起。衡水学院心理学博士周路路也观察到了类似的现象,14岁的女生小雨就把AI编出来的假明星聊天记录当成真的发了出去,结果导致谣言满天飞。这种虚假信息要是不及时处理,很容易让孩子被误导甚至触犯法律。 最让人揪心的是社交层面的变化。12岁的男孩小凯天天跟智能音箱聊天,跟人说话反而变得没什么话了。心理测试显示他的共情能力比同龄人低好多。衡水学院的周路路分析说,智能音箱这种即时回应给了孩子很大的方便,但如果家长和学校不管不顾,很容易让孩子不愿意跟真实的人打交道。 像初三的小甲、小乙长期依赖AI解题已经成了习惯,这种过度依赖严重影响了他们的逻辑推理和创造能力。就拿视频平台来说吧,经常给高中生小美推送美妆穿搭内容。长时间看下去之后,小美开始盲目模仿视频里的东西去买东西,产生了不少非理性消费。 面对这种情况该怎么办呢?王志强所长觉得关键在于怎么引导和监管。受访专家一致认为不能一禁了之。我们得从教育、制度和企业责任这三个方面一起下手。比如河北省科学院应用数学研究所就提议把数字素养和AI素养教育纳入中小学课程里去。要让学生学会怎么判断这些算法推荐出来的东西靠不靠谱,也要教他们保护好自己的隐私安全。 还有平台企业也不能光想着赚钱不管事儿了。衡水学院的周路路就说要把未成年人保护当成产品设计的根本原则去考虑。比如要实施严格的实名认证制度;默认开启青少年模式还不能让用户随便关掉;智能设备要采用最小权限设计;还得有预警机制盯着有没有异常使用的情况发生。