财经博主利用AI工具编造上市公司虚假信息被判侵权 法院明确生成内容责任认定

随着生成式AI技术的快速迭代,如何规范其使用、防范侵权风险成为网络治理的新课题。广州互联网法院近日宣判的一起案件为此提供了重要的司法指引。 事件起源于一篇关于上市公司高管的深度文章。被告曹某系某财经类微信公众号运营者,自称拥有三十年行业从业经验和多项专业资格认证。2025年8月,曹某将一份1700字的文档输入生成式AI应用程序。该文档声称涉及某集团公司高管的职务犯罪案情,包括进口补贴套取、关联交易利益输送等内容。曹某随后指令AI将该文档扩展为不低于1万字的深度长文。AI系统经过7次深度思考、联网搜索139个信息来源后,生成了逾1.5万字的文章。曹某将这篇文章发布在公众号上,标题为《某集团公司某高管的3.2亿犯罪细节曝光》,并标注为"原创"作品。文章详细描述了涉及高管的所谓犯罪细节、公司的财务异常和违规违法行为。 法庭审理查明了事实真相。经过调查,曹某输入AI的1700字文档中,关于原告公司及案涉高管的对应的内容均无合法有效证据、权威公开报道予以佐证,属于虚假信息。AI生成文章所标注的检索来源中,亦未包含前述内容的合法出处与有效佐证。截至文章下架,累计阅读量超1.1万次,转发量超一千次,造成了广泛的负面影响。 原告某集团公司以名誉侵权为由诉至法院,请求被告赔礼道歉、赔偿经济损失50万元及维权费用。被告曹某则辩称,案涉文章为AI生成,相关内容来源于网络公开信息,并非其本人捏造,故不构成名誉侵权。该争议焦点触及了一个根本问题:在AI生成内容的时代,使用者是否可以以"AI生成"作为免责理由? 广州互联网法院的判决给出了明确答案。法院认为,基于生成式AI的技术原理和当前发展水平,AI模型存在固有"幻觉"风险,即可能在没有真实依据的情况下生成看似合理的内容。因此,网络用户使用并传播AI生成内容,必须负有合理注意义务,不能因为使用了AI就推卸责任。 法院的判决理由涵盖了AI使用的全链条。在输入阶段,用户对参考材料的真实性、准确性负有必要的核实义务。曹某输入的1700字文档中涉及公司的相关内容并无客观证据佐证,属于虚假信息。曹某作为AI使用者,应当预见AI模型有可能基于虚假信息输出错误内容,却疏于核实,存在明显过错。在指令阶段,用户的指令会直接影响生成内容的合法边界。曹某向AI下达的"将参考文本生成一篇不低于1万字的深度长文"的指令,实质上是要求AI以不实文本为基础,对虚假信息进行深度扩写。这种做法主观上意义在于放任侵权内容生成、侵权影响扩大的故意。在传播阶段,用户有义务对AI生成内容进行必要核实。曹某未对生成的万字文章进行任何事实审核与虚假信息过滤,亦未采取避免损害发生的必要措施,反而直接公开发布传播,导致虚假信息大范围传播。 法院最终判决被告曹某在其微信公众号向原告公司发布赔礼道歉声明,赔偿经济损失1万元,驳回原告关于赔偿50万元的诉讼请求。虽然赔偿额度低于原告主张,但判决在于明确了法律底线:AI使用者不是法外之地的自由人,而是需要承担相应法律责任的网络参与者。 这一判决具有重要的示范意义。它表明,在AI技术应用日益广泛的背景下,法律制度正在进行积极的适应和完善。既要充分尊重新技术发展潜力,也要坚守对真实信息、人格权益的基本保护。网络用户、内容创作者在使用生成式AI时,不能将其视为"免责金牌",而应当在整个使用过程中保持必要的谨慎和责任意识。 对于财经博主、自媒体运营者等内容创作者来说,这一判决提出了明确的行为规范要求。首先要对输入AI的基础材料进行严格核实,确保信息来源可靠、事实准确。其次要审慎设计AI指令,避免诱导性、扩大化的提示词。最后要对AI生成的内容进行独立的事实核查和质量审核,特别是涉及他人名誉、企业信誉的内容更要谨慎对待。

技术进步改变了内容生产方式,却不改变事实与责任的底线。越是“生成”便利、传播迅速,越需要把关意识与规则约束同步前移。把未经核实的材料包装成“深度文章”,不仅损害他人合法权益,也会透支公众对信息生态的信任。守住真实性、证据性与审慎性,才能让新技术真正服务于更清朗、更可靠的公共传播空间。