杭州互联网法院首次判决AI“幻觉”侵权案 平台免责裁定引发责任边界争议

问题——虚假生成信息致损纠纷上升,追责与救济面临现实困境 随着生成式人工智能加速进入教育咨询、医疗健康、求职招聘、消费决策等场景,“一本正经”输出错误信息的现象引发社会关注。部分用户在升学报考、疾病判断、合同沟通等环节依赖对应的内容,因信息失真造成时间、费用甚至决策损失。企业端同样存在风险:在数据分析、质检判定、市场预测等环节若将生成内容直接作为依据,可能带来库存偏差、质量事故与经营损失。虚假信息的传播链条更长、影响更广,使得纠纷从“能否追责”更延伸至“如何有效救济”。 原因——技术不确定性叠加责任链条复杂,传统规则适配面临挑战 业内人士指出,生成式人工智能以概率生成方式输出内容,在缺乏权威数据支撑或提示不充分时,可能出现“幻觉”。同时,服务链条通常涵盖模型研发、训练数据提供、平台运营、第三方插件或检索服务以及用户使用方式,责任主体呈现多元化,导致“谁该为哪一段错误负责”难以直接对应到传统侵权结构。加之此类损失多表现为机会成本、误工费、差旅费等“纯粹经济损失”,因果关系与可得利益的举证门槛较高,也增加了司法认定难度。 影响——首案裁判提供路径指引,也凸显规则供给不足 据悉,杭州互联网法院在该案一审中驳回原告诉请,围绕三项关键焦点形成较为清晰的裁判思路:其一,生成内容本身不具备民事主体资格,自动生成的“赔偿承诺”等表述难以直接等同于平台真实意思表示;其二,相关服务属性更接近信息服务而非传统意义上的有形产品,责任认定更侧重一般过错原则;其三,平台是否承担责任,与其是否尽到合理注意义务密切相关,包括风险提示是否醒目、功能边界是否清晰、纠错与过滤机制是否到位等。 该案对同类纠纷的事实审查与责任划分具有示范意义,但也反映出当前制度供给仍存在空白:合理注意义务的“尺度”尚未统一;研发方、训练方与运营方在不同环节的责任分配缺少可操作的细化标准;对纯粹经济损失的证明规则与救济路径仍需完善。若标准不明,可能出现企业合规成本难以评估、用户救济预期不稳定等问题。 对策——以规则细化与技术治理并进,构建可验证、可追溯、可救济的闭环 受访人士建议,应从立法、监管、行业自律与平台治理多端发力:一是加快明确责任框架,按照“可控制、可预见、可获益”的原则,细化研发、训练、部署、运营与应用环节的义务清单,形成分层分类的责任规则;二是推动“合理注意义务”标准化,明确风险提示的显著性要求、关键场景(教育、医疗、金融、招聘等)的更高审慎义务,以及对高风险输出的拦截、复核与可解释机制;三是强化可追溯能力,完善内容来源标注、引用链路、调用记录与审计留痕,降低纠纷中的举证成本;四是探索多元救济机制,鼓励建立快速投诉处置、先行调解与小额损失补偿安排,研究引入责任保险、保证金或风险准备金等市场化工具;五是严厉打击借“技术输出”之名实施诈骗、虚假宣传等违法行为,推动平台对异常账号、诱导性话术与高风险模板加强识别处置,形成治理合力。 前景——从“个案回应”走向“系统治理”,以确定性护航创新发展 生成式人工智能带来的效率提升与风险外溢并存。随着应用场景深入,纠纷数量与类型仍可能增长,司法裁判将持续提供规则样本,但更需要在更高层面形成统一、透明、可执行的制度安排。业内普遍认为,建立与技术演进相匹配的治理体系,不是对创新的束缚,而是为产业发展提供可预期的边界与信任基础,使技术更安全地服务公共利益与经济社会发展。

AI服务的可信度既是技术挑战,更是治理课题;首例侵权案表明,仅靠免责声明无法满足公众对安全的需求,过度追责也可能阻碍创新。只有完善制度设计,明确责任标准,构建全链条治理机制,才能让新技术真正造福社会,实现风险可控发展。