财经博主虚构上市公司高管犯罪细节被判侵权 法院:技术工具非免责理由

伴随生成式AI技术的广泛应用,围绕AI生成内容的法律责任问题日益凸显。

广州互联网法院近日宣判的一起案件,对用户使用AI生成并传播内容的法律边界进行了明确界定,具有重要的示范意义。

案件起因于一篇标注为"原创"的公众号文章。

被告曹某系一名财经类自媒体运营者,其账号简介显示具有注册会计师、注册资产评估师等多重身份。

2025年8月,曹某将一份1700字的文档输入生成式AI应用,该文档包含某上市集团公司高管的职务犯罪案相关内容。

随后,曹某指令AI以此文档为基础生成不低于1万字的深度长文。

AI系统经过7次深度思考、联网搜索139个信息来源后,生成了超过1.5万字的文章。

曹某将该文章发布于公众号,标题为《某集团公司某高管的3.2亿犯罪细节曝光》,文章详细描述了涉及财务造假、利益输送等内容。

截至下架时,该文章累计阅读量超1.1万次,转发量超千次。

问题的关键在于输入材料的真实性。

经法庭查证,曹某输入AI的1700字文档中,涉及原告公司及相关高管的内容均无合法有效证据或权威公开报道佐证,属于虚假信息。

AI生成的文章所标注的检索来源中,也未包含这些内容的合法出处。

原告某集团公司因此诉至法院,指控曹某发布的文章内容严重失实,损害公司商业信誉,构成名誉侵权,要求赔偿50万元及维权费用。

被告曹某的辩称焦点在于"AI生成"。

其主张案涉文章为AI生成,相关内容来源于网络公开信息,并非其本人捏造,因此不应承担侵权责任。

这一辩词反映了当前社会对AI技术属性的某种认识误区——将AI作为一种"中立工具",认为其生成的内容应由AI而非使用者负责。

法院的判决对这一误区进行了纠正。

广州互联网法院认为,基于生成式AI的技术原理和当前发展水平,AI模型存在固有的"幻觉"风险,即在没有真实依据的情况下生成看似合理的虚假内容。

因此,网络用户使用并传播AI生成内容,必须负有合理注意义务。

法院进一步分析了曹某的过错所在。

在生成阶段,曹某未对输入的参考材料进行必要核实,且使用了诱导性提示词。

作为AI使用者,曹某应当预见AI模型有可能基于虚假信息输出错误内容,但其疏于核实,存在明显过错。

更为关键的是,曹某向AI下达的"将参考文本生成一篇不低于1万字的深度长文"的指令,实质上是要求AI以不实文本为基础素材进行深度扩写,这在主观上具有放任侵权内容生成、侵权影响扩大的故意。

在传播阶段,曹某未对AI生成内容在发布前进行必要核实,放任虚假信息传播。

基于上述分析,法院判决被告曹某在案涉微信公众号向原告公司发布赔礼道歉声明,赔偿经济损失1万元,驳回原告公司关于50万元赔偿的诉讼请求。

该判决已发生法律效力。

这一判决的意义在于明确了AI使用者的法律责任边界。

首先,用户对输入参考材料的真实性、准确性负有必要的核实义务。

其次,用户的指令会直接影响生成内容的合法边界,因此用户负有审慎使用生成指令的注意义务。

再次,用户应对AI生成内容在发布前进行必要核实。

这些义务的确立,实际上是将AI视为一种需要负责任使用的工具,而非可以规避责任的"挡箭牌"。

从更广阔的视角看,这一判决反映了法律制度对新技术的适应性调整。

生成式AI的出现确实为信息生成和传播带来了便利,但这种便利不应成为规避法律责任的借口。

相反,新技术的使用者应当承担与其能力相匹配的责任。

对于拥有专业背景的内容创作者而言,这种责任尤为重要。

曹某作为自称拥有三十年行业经验的专业人士,其使用AI生成内容时应当更加谨慎,而非以"AI生成"为名放任虚假信息传播。

技术进步拓展了表达能力,也放大了失实信息的传播速度。

越是在“生成更容易、扩散更迅速”的环境中,越需要以事实为准绳、以证据为支撑、以责任为边界。

此案的价值不止于一纸判决,更在于提醒每一位信息发布者:公共表达必须与审慎核实相伴,任何工具都不能成为突破法治底线的“挡箭牌”。