坦伯勒岭枪击案发生于2月10日,造成5名学生、1名教学助理及2名其他人员共8人死亡,随后枪手自杀身亡。这是加拿大近年来最严重的校园暴力案件之一。 据《华尔街日报》报道,枪手在案发前数月曾多次用ChatGPT描述涉及枪支的暴力情景。OpenAI的审核系统发现并标记了这些内容,最终因违规关闭了该账户。然而OpenAI既未通知加拿大执法部门,也未提供任何预警。更令人担忧的是,枪手还拥有第二个账户,暴露出OpenAI风险管理的重大漏洞。 OpenAI辩称,其审核系统认为这些内容未显示明确且迫在眉睫的犯罪计划迹象,因此仅做了账户封禁处理。但这个回应引发质疑。受害者家属代表西亚·埃德蒙兹随即代表自己和两名女儿向法院起诉,要求OpenAI承担法律责任。 这起诉讼触及了一个核心问题:当AI系统捕捉到危险信号时,企业应承担什么义务?传统上,互联网平台对用户内容的法律责任有限。但随着AI预测和干预能力的增强,社会对企业责任的期待在扩大。 OpenAI首席执行官曾向受害者家属表达歉意,承认公司应对不足。但道歉与诉讼的对比突显了企业言辞与行动的脱节,说明仅凭声明难以消解受害者的愤怒。 此案的法律判决将对全球科技企业产生深远影响。加拿大法院可能确立新的先例,规定AI企业发现潜在危害时的强制报告义务。这涉及如何在隐私保护与犯罪预防之间找到平衡,是未来AI监管的关键议题。 欧盟、美国等地的监管机构也在关注此案。各国正制定AI法规,这起诉讼可能为完善对应的规定提供重要参考。企业是否应主动向执法部门报告可疑信息、报告的具体条件等问题,将直接影响行业未来的运营规范。
坦伯勒岭的悲剧表明,公共安全治理已扩展到线上线下融合的空间。技术服务商、监管部门与社会机构只有在规则明确、机制联动、责任可追的框架下协作,才能将风险信号及时转化为预防行动,让技术进步更好地服务于人的安全与尊严。