今年5月,执业律师黄贵耕遭遇了一场始料未及的信誉危机。
其案件委托人发来的截图显示,某搜索平台的智能问答系统在回答关于他的查询时,生成了包含威胁法官、行贿、伪造印章、非法吸收公众存款等多项刑事指控的内容,并声称信息来源于司法机关公开通报。
这些子虚乌有的指控迅速在客户群体中传播,严重影响了黄贵耕的执业信誉和业务拓展。
经过仔细核查,黄贵耕发现,智能系统所引用的案例确实存在于相关媒体报道和司法文书中,但系统将报道中匿名处理的"律师黄某"、案例中的"黄某平"等不同主体的信息,通过技术手段拼接整合,错误地指向了他本人。
更令人担忧的是,当用户搜索其姓名时,系统还会自动关联"有没有犯罪"、"为什么不建议找"等负面联想词,形成了一个持续传播的负面信息链条。
这并非个案。
记者调查发现,今年以来,已有多位公民反映遭遇类似问题。
智能问答系统在整合网络信息时,因算法缺陷或数据处理不当,将不同主体的信息混淆,对特定个人作出错误的负面评价。
有受害者表示,这种技术性错误造成的伤害远超普通诽谤,因为机器生成的内容往往被公众赋予更高的可信度。
技术专家分析指出,当前智能问答系统普遍采用大规模语言模型,通过抓取、整合互联网公开信息来生成答案。
然而,这类系统在信息归属、实体识别、事实核验等环节存在明显短板。
特别是在处理同名同姓、相似背景的不同主体时,容易出现指代混乱。
此外,算法在优化点击率和用户停留时间的过程中,可能倾向于推送具有冲突性、话题性的内容,客观上加剧了负面信息的传播。
此类纠纷引发的法律争议同样复杂。
黄贵耕已于去年9月向法院提起诉讼,要求平台方承担侵权责任。
但在司法实践中,如何界定平台责任尚无明确先例可循。
有法律界人士认为,平台提供的是技术服务,对机器自动生成的内容难以完全控制,应当适用避风港原则,在接到通知后及时删除即可免责。
也有专家持相反观点,强调平台作为技术开发运营者,对系统生成内容的真实性、准确性负有审核义务,不能以技术中立为由推卸责任。
更深层的争论涉及技术创新与权益保护的平衡。
部分业内人士提出,人工智能技术尚处发展阶段,出现错误在所难免,过于严苛的法律责任可能抑制技术进步,社会应当对技术失误保持一定容忍度。
这一观点遭到法学专家的明确反对。
他们指出,技术创新不能以牺牲公民基本权利为代价,名誉权作为宪法保护的人格权,其重要性不应因技术发展而被弱化。
平台企业在追求商业利益的同时,必须建立健全的风险防控机制,对可能侵害用户权益的技术应用进行严格把关。
从监管层面看,相关部门已开始关注智能系统带来的新型法律问题。
去年出台的相关管理办法要求,生成式人工智能服务提供者应当采取有效措施防止生成虚假信息,尊重他人合法权益。
但在具体执行标准、责任认定机制、救济途径等方面,仍存在较大的规则空白。
如何在鼓励技术创新与保障公民权益之间找到平衡点,考验着立法者和监管者的智慧。
业界呼吁,应当尽快建立人工智能应用的分级分类监管体系。
对于涉及个人信息、名誉评价等敏感领域的应用,应当设置更高的准入门槛和更严格的内容审核标准。
平台企业需要投入更多资源用于算法优化和人工复核,特别是在生成涉及具体个人的负面信息时,应当建立强制性的事实核验程序。
同时,应当完善用户反馈和纠错机制,确保受害者能够及时、有效地维护自身权益。
技术进步的价值,最终要以对人的尊重与对事实的敬畏来衡量。
生成式检索把信息组织能力推向新的高度,也把“错误的代价”成倍放大。
面对名誉受损、信任受挫等现实痛点,既不能以创新之名放任失真传播,也不宜因个案风险否定技术应用。
关键在于把责任链条织密,把纠错通道打通,把可核验原则落到产品与制度细节中,让效率与公平在同一套规则下运行。