杭州互联网法院审结生成式智能“幻觉”误导纠纷案:索赔9999元被驳回并生效

问题浮现: 2025年6月,一起特殊的网络侵权纠纷在杭州互联网法院立案。

原告梁某在使用某人工智能应用查询高校报考信息时,系统生成了某高校主校区的不准确信息。

尽管原告多次纠正,系统仍坚持错误信息并建议通过法律途径索赔。

梁某认为该误导导致其错失报考机会,遂起诉技术提供方索赔9999元。

原因剖析: 经审理查明,该案例暴露出人工智能技术存在的"幻觉现象"——即系统在缺乏准确数据支撑时,仍会生成看似合理但实际错误的内容。

这种现象分为事实性错误和逻辑性矛盾两种类型,本案属于典型的事实性错误。

法院特别指出,当前法律尚未赋予人工智能民事主体资格,其生成的"赔偿承诺"不具备法律效力。

影响评估: 该判决对我国数字经济发展具有多重意义。

一方面明确了技术提供方的责任边界:只要在显著位置提示技术局限性并尽到说明义务,就不应为系统误差承担过错责任。

另一方面也警示公众,人工智能生成内容在当前技术条件下仍存在可靠性局限,不能完全替代人工判断。

对策建议: 法院在判决中强调,面对人工智能技术,用户应当保持理性认知:一是要认识到现有技术仍处于辅助工具阶段;二是重要决策需多渠道核实信息;三是企业需进一步完善风险提示机制。

清华大学法学院专家指出,该案正确区分了"产品责任"与"服务责任"的法律适用标准,为同类案件审理提供了重要参考。

发展前景: 随着人工智能技术深入应用,类似纠纷可能增多。

业界专家普遍认为,在现有技术框架下完全消除"幻觉现象"仍面临挑战。

世界经济论坛已将人工智能生成的错误信息列为全球五大风险之一。

该案的审理思路为平衡技术创新与权益保护提供了司法智慧,对未来数字法治建设具有示范意义。

生成式人工智能正在深刻改变人类的生活、工作和创造方式,其强大的文本生成能力为社会带来了便利。

但正如本案所揭示的,这项技术也存在明显的局限性。

AI幻觉问题的存在提醒我们,技术进步与风险防范需要并行。

从法律层面看,本案通过明确服务提供者的责任边界、区分不准确信息与违法有害信息、确立过错责任原则,为人工智能时代的法律规制奠定了基础。

从社会层面看,用户需要提高对人工智能局限性的认识,避免过度依赖和盲目信任。

只有在充分认识人工智能能力与局限的基础上,才能有效利用这一工具增强自身能力,而不是被其替代或迷惑。

这正是人工智能时代需要思考的核心问题。