智能玩具情感交互存缺陷 专家警示或影响幼儿心理发展

一个小女孩紧紧搂住AI玩伴,轻声说出"我爱你",却听到一段程式化的电子音回答;一名三岁男孩向AI朋友诉说"我很难过",换来的却是因误听指令而响起的欢快回应。

这是剑桥大学研究团队在调查中记录的真实场景。

随着生成式人工智能技术的普及,类似的互动正悄悄进入全球无数家庭。

剑桥大学"早期AI"项目研究团队近期发布开创性报告,通过问卷调查、小组访谈和直接观察,深入探讨了能与儿童对话的生成式AI玩具对幼儿发展的影响。

与传统电子玩具的预设回应不同,生成式AI玩具能进行开放式对话,更接近真实伙伴的互动方式,但这种拟真特性背后隐藏着多重风险。

情感互动错位威胁幼儿心理健康。

研究发现,现有AI玩具在理解和回应儿童复杂情感方面存在显著缺陷。

这些玩具的回应往往是程式化、不合逻辑甚至完全无关的。

成年人可以理解这种局限,但对处于关键发展阶段的幼儿而言,当自己的情感流露数次得到笨拙、冷漠或错误的反馈时,可能会潜移默化地认为自己的感受不重要,从而干扰健康情感认知的形成。

发育心理学研究表明,0至6岁是儿童建立安全依恋关系、发展社会情绪能力的关键时期。

在这一阶段,儿童通过与主要照料者之间稳定、敏感、有回应的互动,学习识别和管理情绪,建立对他人和世界的基本信任感。

然而,一些内置AI聊天机器人的玩具频繁打断孩子说话、混淆不同声音,对情感表达作出尴尬回应。

研究观察到,儿童会拥抱、亲吻这些玩具,认为玩具也爱自己,导致他们将情感需求诉诸玩具而非身边成年人。

结果既得不到玩具的安慰,也失去了成年人的情感支持,削弱了儿童与真实世界之间至关重要的情感纽带。

社交能力发展面临新的挑战。

AI玩具在促进儿童全面发育方面存在明显短板。

在需要多人协作和角色扮演的复杂社交游戏中,这类玩具往往表现不佳,而这些游戏正是幼儿学习合作、共情和解决问题能力的基石。

儿童在争抢玩具时学会分享,发生矛盾时尝试沟通,被拒绝时学会接纳,这些真实场景中的历练能让孩子逐步建立边界感、同理心和问题解决能力。

一旦孩子习惯了与AI玩具的单向互动模式,可能难以适应复杂的人际关系。

此外,AI算法的迎合特性也削弱了儿童批判性思维的发展,长期下来会导致自主探索欲望退化。

隐私保护陷入"黑箱"困境。

另一个不容忽视的风险藏在隐私条款的灰色地带。

许多产品的隐私政策模糊不清,对收集的儿童语音数据、数据存储方式和使用途径语焉不详,引发家长对数据安全的普遍忧虑。

部分AI玩具集成了高敏麦克风、广角摄像头、毫米波传感器等高科技配件,能感知儿童的呼吸频率、记录对话内容,甚至分析情绪变化,并通过交互采集各种敏感信息。

儿童缺乏足够能力辨别哪些信息会被收集,更无法理解复杂的隐私协议,使得他们成为数据收集中最脆弱的群体之一。

监管与平衡的现实考量。

虽然部分教育工作者认为这项技术未来或许能辅助儿童语言学习,但风险防控不能有所懈怠。

研究人员指出,保护未成年人应成为AI监管的重中之重。

这要求相关部门建立更严格的产品标准、明确的隐私保护规范和有效的监督机制,确保AI玩具在上市前经过充分的儿童安全评估。

同时,家长和教育机构需要提高对这类产品风险的认识,在使用过程中设置合理的时间限制,并优先保障儿童与真实人际互动的时间和空间。

技术走进家庭的速度,往往快于规则完善的速度。

面对会说话、会“陪伴”的新型玩具,社会需要多一分审慎:让产品真正服务于儿童成长,而不是以陪伴之名替代亲子互动、以智能之名模糊数据边界。

守住底线、补齐规范、提升家长与行业共同责任,才能让创新在安全轨道上释放价值。