AI短剧“换脸”侵权从明星扩散到普通人,平台审核责任和维权路径亟待明确

一、问题显现:技术便利催生新型侵权 继影视明星迪丽热巴诉AI换脸案胜诉后,普通网民肖像被盗用的情况仍在增多。某汉服博主近日发现,自己在社交平台发布的个人写真被他人擅自用于商业短剧制作,人物形象与服饰细节被高度复刻。此类案例折射出深度合成技术快速普及下的监管与规则空白。数据显示,2023年全国互联网法院受理的肖像权纠纷中,涉及AI技术的占比已达37%,同比上升21个百分点。 二、成因剖析:低成本与高收益驱动 调查显示,传统拍摄一部微剧成本约20万元,而采用AI换脸技术可压缩至3万元以内。部分制作公司通过签约“数字演员库”,将真人肖像与预制模板组合,实现批量化生产。北京策略律师事务所刘慧娟律师认为,技术门槛下降叠加逐利冲动,再加上一些平台为流量放松审核,使侵权内容更容易快速传播。 三、司法突破:确立“可识别性”裁判标准 北京互联网法院在最新判决中明确:只要社会公众能够辨识图像与特定主体之间的关联,即可认定构成肖像权侵害。该案判令制作方与播出平台承担连带赔偿责任,金额为28万元,刷新同类案件赔偿额纪录。判决书同时指出,平台即便取得“著作权授权”,也不能免除对人格权的审查义务,并要求对AI生成内容建立分级管理机制。 四、维权路径:构建三位一体防护网 针对普通受害者维权难点,法律专家给出更具操作性的建议: 1. 证据层面:完整保存侵权内容的原始数据,包括时间戳、传播路径等元信息; 2. 处置效率:使用区块链存证等方式增强证据效力,缩短司法认定周期; 3. 赔偿标准:依据《民法典》第1028条,非营利性侵权可主张5000至5万元精神损害赔偿。 五、行业前瞻:技术治理需立法跟进 工信部《2024年数字权益保护白皮书》显示,我国深度合成技术企业已达2400余家,但仅15%设立了专门伦理审查委员会。中国人民大学法学院张新宝教授指出,现行《网络信息内容生态治理规定》尚未明确AI生成内容的针对性监管要求,建议在《未成年人网络保护条例》修订中增设技术滥用涉及的条款。

人工智能带来的便利与变革已成趋势,但技术使用必须以尊重和保护基本权利为前提。AI换脸侵权频发提示我们,只有继续明确责任边界、完善监管规则、提高公众维权能力,才能在技术发展中守住权利底线,切实保护个人肖像权,并推动数字时代法治建设更扎实地向前。