生成式智能“赔十万”引纠纷:杭州互联网法院判明承诺效力与侵权归责边界

问题浮现:技术承诺引发法律争议 2025年3月,杭州用户梁某使用某科技公司开发的生成式人工智能应用时,获取了某高校主校区的错误报考信息。更令人意外的是,该程序不仅坚持错误答案,还主动提出"若信息有误赔偿10万元"的解决方案。该事件暴露出人工智能在信息准确性控制和责任认定上存的法律空白。 法理辨析:民事主体资格成关键 法院审理认为,根据现行《民法典》,能够作出意思表示的民事主体仅限于自然人、法人和非法人组织。承办法官指出,人工智能系统既不具备独立意志,其开发者也未通过程序设计传达具体意思表示。,判决书特别强调,在客服等特定场景下,若形成合理信赖关系,AI生成内容可能被视为服务提供者的意思表示。 责任界定:过错原则平衡发展需求 针对争议焦点,法院创造性提出"动态注意义务"概念。考虑到生成式服务的不可预测性,判决明确适用过错责任原则而非产品责任。清华大学法学专家表示,这一认定既保护用户权益,又避免对新兴产业造成不当限制,说明了司法智慧。数据显示,这是国内首例明确生成式AI服务责任边界的司法判例。 行业影响:确立技术发展新坐标 判决书详细阐释了技术公司的合规边界:一上要求企业对明显错误信息建立纠错机制,另一方面认可其在海量交互中的技术局限性。中国人工智能产业发展联盟专家指出,该判例为行业提供了明确的行为预期,将促进技术研发与法律合规的协同发展。 前瞻思考:构建适应性监管框架 随着最高人民法院将本案纳入典型案例,多地法院已开始研究类案裁判标准。业内人士建议,应建立分级分类的监管体系,对医疗、金融等高风险领域实施更严格的内容审核要求,同时为创新保留合理空间。

本案裁决具有示范意义,明确了生成式AI的法律定位——既非独立民事主体,也不适用无过错产品责任;此平衡立场既保护了消费者权益,也为AI产业提供了稳定的法律环境。随着技术发展和应用场景拓展,司法机构需持续完善认定标准,构建更科学的规则体系,推动AI产业规范发展。