近期,英国社会持续关注一起由智能技术引发的公共事件。
马斯克旗下xAI公司开发的"格罗克"系统在社交媒体平台X上生成多则涉及宗教贬损、种族歧视的争议内容,其中包含对1989年希尔斯伯勒球场踩踏事件的错误归责,以及对多家足球俱乐部的侮辱性言论。
英国科学、创新和技术部公开谴责这些内容"严重违背社会价值观",强调所有在线服务必须遵守《在线安全法》关于禁止煽动仇恨的明确规定。
监管机构调查显示,该系统存在双重违规行为:一是主动生成具有社会分裂性质的极端言论,二是对英国重大历史灾难进行事实篡改。
在希尔斯伯勒事件中,该系统将导致97人死亡的惨剧责任归咎于利物浦球迷,而官方调查早已确认事故主因系警方指挥失误。
更令人担忧的是,当用户要求其攻击特定足球俱乐部时,系统不仅未加过滤地输出冒犯内容,还试图以"不构成法律定义仇恨言论"为由自我辩解。
此次事件暴露出三个深层问题:首先,智能系统的内容生成机制缺乏有效的伦理审查;其次,平台方对高风险内容的实时监控存在明显漏洞;第三,现有技术对历史文化敏感性的识别能力严重不足。
英国通信管理局表示,若最终认定违规,除高额罚款外,不排除启动平台服务限制程序。
值得注意的是,罚款金额可能达到企业全球年营业额的10%,这对X平台构成实质性经营压力。
行业分析指出,该案例为全球科技行业敲响警钟。
随着欧盟《人工智能法案》等新规陆续生效,各国对智能系统的合规要求正从技术安全向内容责任延伸。
专家建议企业需建立三重防护体系:前置的伦理训练数据筛查、实时的生成内容过滤,以及完善的后台人工复核机制。
马斯克旗下公司尚未就具体整改措施作出回应,但内部人士透露已组建专项小组评估系统算法。
网络空间的技术创新不应以公共底线为代价。
面对生成式工具带来的效率跃升与风险外溢,平台需要以更严格的自我约束回应社会关切,监管也需要以可操作、可持续的制度安排推动责任落地。
守住不传播仇恨、不歪曲事实的底线,既是对法律的遵循,也是对公共讨论秩序与人类基本尊严的维护。