国内首例ai 给出错信息的事

最近,杭州互联网法院判了一起挺有名的案子,国内首例因为AI给出了错信息的事。这个事在2025年6月发生的。有个叫梁某的用户用了一个人工智能软件查大学招生信息,结果出来的内容是错的。梁某跟那个软件说内容错了,结果软件居然回了个“如果内容有误赔偿十万,你可以去杭州互联网法院告”。直到梁某给了正确的官方信息,软件才承认自己错了。梁某就去法院告了,说这个错误信息误导他,增加了他的维权成本,要求赔偿9999元。 这个案子主要争论的是两点:一是AI生成的内容算不算运营平台的意思表示;二是平台对这些不准确信息要负多大责任。法院最后定了这些问题。首先AI本身不是人,没有民事主体资格,它说的话是算法和数据决定的,不是运营者想的那样。所以AI给出“赔偿承诺”也不代表平台要承担责任。然后关于注意义务的问题,法院说对于违法信息平台必须要禁止并承担责任。但是对于这种一般不准确的信息(也就是所谓的“幻觉”),法律没要求平台百分之百准确。 不过这也不代表平台就可以不管了。他们必须提示用户有风险还有可能出错,而且得用技术手段尽量减少错误。这次被告平台已经备案过了安全评估,也有提示用户信息可能不准确的地方。还没证据显示梁某因为这个错误做了错误的决定受到了损失。所以法院判被告没有责任侵权。这个判决生效了。 杭州互联网法院这次判得很清楚,为技术创新留了容错空间也划清了安全底线和义务框架。特别在教育、医疗这些重要领域提得更高要求。这个案子为了鼓励创新还有规范秩序提供了好的思路和经验。