一、问题浮现:AI生成内容引发法律争议 杭州互联网法院近日审理了一起涉及生成式人工智能的侵权案件;案情特殊:用户在使用AI服务时,系统自动生成了"内容有误将赔偿10万元"的承诺条款。后来生成的内容确实存在事实错误,用户据此要求赔偿,由此产生纠纷。这是我国司法实践中首次明确处理此类案件,也暴露出AI应用中的法律空白。 二、司法界定:技术承诺不具法律效力 法院的判决很明确:生成式AI不具备民事主体资格,系统自动生成的承诺不能代表服务提供者的真实意思。主审法官指出,AI系统既不是法人也不是自然人,其输出本质上是算法运算结果。只有当服务提供者主动通过技术手段设定或传达特定信息时,才能产生法律效力。这个判决从司法层面划清了技术行为与企业责任的界限。 三、责任厘清:服务提供者的三项法定义务 根据《生成式人工智能服务管理暂行办法》,法院明确了服务提供者需要履行的义务: 1. 内容审查义务:建立分级审核机制,对系统输出进行动态监测,及时发现违法侵权内容。 2. 风险警示义务:以显著方式告知用户生成内容可能不准确,防止误导用户。 3. 应急处置义务:发现违规内容后立即停止传输、修正内容,并优化算法模型。 四、行业影响:为AI产业划定合规边界 这份判决对快速发展的AI产业至关重要。专家认为,裁决既保护了技术创新空间,又建立了合理的责任框架。我国现有超200家AI核心企业,年产业规模已突破5000亿元。在这样的背景下,此次司法实践为行业发展提供了明确指引。 五、前瞻建议:完善全链条治理体系 业内人士指出,随着技术发展,涉及的法律制度需要同步完善: - 建立生成内容溯源机制,确保输出结果可核查、可追责。 - 推行技术服务分级认证制度,根据应用场景实施差异化监管。 - 完善用户权益救济渠道,形成预防、监督、救济的完整闭环。 国家网信办近期已就深度合成服务管理办法公开征求意见,预示着监管体系将更加系统化。
杭州互联网法院的这份判决清晰地划分了技术工具与法律主体的界限,明确了服务提供者的责任范围,也为用户权益保护建立了制度框架。随着生成式AI技术的演进和应用场景的拓展,类似的法律探索还会继续。关键是在利用技术优势的同时,通过完善的法律制度和行业规范,确保这项工具在可控、可信的框架内为社会创造价值。