问题的提出 2025年6月,用户梁某通过某应用查询高校报考信息,收到与官方招生信息不符的答复。指出错误后,对话中随即出现"如有误将赔偿10万元、可去杭州互联网法院起诉"等表述。梁某认为这些不准确的信息造成了误导,增加了核实和维权成本,要求运营者赔偿9999元。运营者则辩称有关内容由模型自动生成,不代表其真实意思表示,且已履行必要注意义务,用户也未发生实际损失。 杭州互联网法院一审判决驳回梁某全部诉讼请求,双方未上诉,判决已生效。这被视为我国首例因生成式服务"幻觉"引发的侵权纠纷,其裁判要点为类似争议提供了参照标准。 争议焦点分析 法院的判决触及三个核心问题。 首先是"谁在说话"。对话内容能否视为平台承诺,涉及民事主体与意思表示的认定。法院明确指出,现行法律框架下,生成式系统不具备民事主体资格,无法独立作出意思表示,也不能当然被认定为平台的代理人。因此,即便对话中出现带有"赔偿""起诉"字样的承诺式表达,也不足以推定平台作出了真实承诺。 其次是"说了算不算"。法院认为案件涉及的是服务提供而非产品交付,不适用无过错的产品责任规则,应适用以过错为核心的归责思路。仅凭生成错误本身并不能当然构成侵权,需要深入审查运营者是否存在未尽合理注意义务等过错情形。 第三是"错了谁担责"。生成式服务在开放问答、检索整合、语言组织等环节仍可能出现"看似自洽却与事实不符"的输出。该风险在教育升学、医疗健康、金融投资等敏感场景尤为突出,客观上要求通过制度与技术共同降低误导概率。 判决的平衡意义 这份判决在保护用户权益与鼓励技术创新之间作出了平衡。一上,裁判强调"人类负责制"与平台过错审查,避免将模型输出中的夸张承诺或不当表述直接转化为平台的法律负担,防止责任无限扩张,稳定服务创新的预期。另一方面,裁判并未放任风险外溢,而是以"注意义务"作为关键抓手,要求运营者对用户可预见的误用与误信承担相应管理责任。 对不同主体的启示 对公众而言,该案提醒在使用相关服务查询升学报考等关键信息时,应以权威渠道为准,不要将"对话式答案"当作最终依据。对平台而言,则意味着"提示—防错—纠偏"将成为产品设计和运营合规的必答题。 可操作的合规路径 法院在裁判中对"注意义务如何划界"进行了类型化、分层次的阐释。 第一类是法律明确禁止生成的有毒有害、违法信息,应承担更严格的审查与拦截责任,一旦生成即可能触碰红线。 第二类是一般性不准确信息。法律并未要求服务提供者保证"零错误",而强调方式性义务:应通过合理技术与管理措施提高输出的准确性,例如完善训练与评测、引入检索校验与来源标注、设置高风险问题的答复限制、提供一键纠错与反馈闭环等。 第三类是显著提示说明义务。平台应在用户易触达位置以醒目方式告知服务局限与使用风险,在欢迎页、用户协议、关键场景弹窗或结果页提示"答案仅供参考""以官方权威信息为准"等,并对教育招生等敏感应用设置更强提示与引导。通过"规则可见、风险可感、纠错可达",把不确定性前置告知、把可控风险尽可能压低。 发展趋势 随着生成式服务加速进入政务咨询、教育辅导、法律服务等领域,围绕信息准确性、来源可追溯、误导损害认定等问题的司法需求将持续增长。可以预期,未来裁判与监管将更加重视场景分级与风险分层:对直接影响人身、财产、受教育权等重大利益的场景,平台可能被要求配置更严格的校验机制、更明确的来源展示与更及时的纠错通道;对一般性问答,则在鼓励创新的同时强调底线合规与用户知情。 行业层面,"靠声明免责"难以替代"以能力防错"。谁能在技术可信、合规透明、纠错高效上形成体系化能力,谁就更可能在竞争中赢得长期信任。
这起标志性案件犹如一面多棱镜,折射出数字经济时代技术创新与法律规制之间的复杂关系。当机器算法越来越深度介入社会生活,如何在鼓励创新与保护权益之间找到平衡点,将成为立法、司法和产业界需要持续探索的命题。本案确立的裁判规则不仅为解决类似纠纷提供了范本,更启示我们:科技向善的发展之路,需要法律规范与技术伦理的双重护航。