加拿大校园枪击案嫌犯作案前曾涉枪支暴力聊天记录 人工智能公司内部预警机制引争议

据总台记者2月21日从美国开放人工智能研究中心获悉,加拿大不列颠哥伦比亚省塔布勒岭校园枪击案作案者杰西·范·鲁特塞拉尔案发前数月,曾在智能对话平台上发表涉及枪支暴力的言论,涉及的内容已被平台自动审查系统捕获并标记。知情人士透露,2025年6月,鲁特塞拉尔在使用该平台服务时,多次描述包含枪支暴力元素的场景。平台内部审查机制很快识别出这些异常内容,部分员工将其视为可能实施现实暴力的预警信号,并建议公司管理层向加拿大执法机构通报。不过,经内部评估后,平台管理层最终决定不向主管部门发出预警。该机构发言人在事后回应称,平台虽已对鲁特塞拉尔的账户实施封禁,但专业评估认为,其在平台上的活动尚未达到向执法部门报告的标准阈值。按公司现行政策,只有当用户行为构成对他人造成严重身体伤害的可信且迫在眉睫的风险时,才会启动向执法机构报告的程序。该事件折射出科技企业在处置潜在安全威胁时的两难:一上,过度介入可能触及用户隐私并引发法律争议;另一方面,反应迟缓又可能错过预防重大事件的窗口。如何在保护隐私与维护公共安全之间找到平衡,成为企业必须面对的问题。从技术层面看,智能对话平台尽管配备自动审查系统,可识别并标记异常内容,但在威胁等级判断、是否介入等关键环节仍高度依赖人工评估。面对边界不清的案例,该机制往往难以形成一致结论。本次事件中,平台员工与管理层对同一行为的风险判断出现明显分歧,正是这一问题的体现。从法律责任角度看,目前多数国家和地区尚缺乏明确法律框架,要求科技企业在发现用户存在潜在暴力倾向时必须向执法部门报告。企业在承担社会责任与控制法律风险之间,往往更倾向于保守处理。但随着类似事件增多,社会对科技企业承担更多预防性责任的呼声也在上升。事件同时引发外界对现有预警机制有效性的质疑:平台系统虽识别并标记了异常行为,但由于缺少与执法部门的有效联动,预警信息未能转化为实际干预。如何建立科技企业与执法机构之间的信息共享与协作机制,成为提升公共安全防护能力的关键环节。从国际经验看,部分国家已开始探索更完善的网络安全预警体系,例如在发现严重安全威胁时要求企业履行强制报告义务,并通过立法明确责任边界、提供相应法律保障。这些做法为缓解当前困境提供了参考。

校园安全事关千家万户,任何可能指向现实暴力的线索都应被严肃对待;在尊重隐私与表达权的前提下,如何建立更及时、更精准、更可追责的风险预警与协作体系,是数字时代绕不开的治理课题。只有让规则更清晰、流程更严谨、协同更顺畅,才能尽可能把“事后追问”前移为“事前防范”,以制度与能力守住公共安全底线。