最近,杭州互联网法院审结了一起有关AI的侵权案件,这次审判给AI平台与用户之间的边界划清了线。随着AI技术广泛应用于教育、医疗和金融等关键领域,大家越来越关注它生成内容的真实性。这次案子中,一名考生家属在使用AI查询高校信息时,发现AI给出了某高校并不存在的校区信息,还自动说了句“如有错误赔偿10万元”。用户把这话当真后,觉得公司该赔他钱。法院认为,这种AI在交互中随机产生的赔偿表述,不能当作平台方的真实意图。法院驳回了他的诉讼请求,还提到AI在生成流畅文本时常常掺杂不真实内容。 麦可思研究院2025年对高校师生群体的调查显示,近八成受访者曾遇到过AI的“幻觉”输出。这种问题不是偶然发生的故障,而是大语言模型基于概率机制生成文本时难以根本解决的技术局限。当这些失真信息进入教育、医疗咨询或投资决策等高风险场景时,可能给用户带来严重损失。 这次判决明确了AI服务提供者应承担与其技术能力相适应的责任。比如持续优化模型减少错误、在显眼位置提示不确定性、还有在涉及重大利益时设置警示等。但司法也没让平台背过多负担,强调要在鼓励创新和防范风险之间找到平衡。 判决还关注到了使用者一方的问题。法院指出用户把AI随机生成的“承诺”视为契约缺乏依据。这反映出部分人对技术认知不足,把AI输出当成专业权威信源。个别用户甚至会策略性采信明显错误的信息,这不仅解决不了问题,还削弱了辨别能力。 未来,技术企业需要遵循安全可控的开发伦理;立法司法要构建分层的规制体系;广大用户要提升批判性使用素养。只有多方协同努力,人工智能才能真正推动社会进步。