问题:从“明星相似”到“人人可被复刻”的风险外溢 近日,某公司推出的“数字演员”因面容、气质与当红艺人高度相似引发争议;部分网友将其视为传统意义上的“明星维权”新案例,但更需要警惕的是,深度合成正从少数专业团队走向大众化应用,被快速复制的并不只是公众人物的形象。面部特征、声纹、表情乃至动作习惯,正被当作可调用、可拼接、可变现的“数据要素”。当“像又不完全像”的生成形象大量出现,社会识别真实身份的成本随之上升,个体人格尊严与公共信任同时承压。 原因:技术迭代快、门槛下降与规则滞后叠加 业内人士指出,深度合成效率提升、生成成本下降,使“相似人脸”的制作与传播更容易。一上,一些商业主体将其当作营销手段,试图用“擦边相似”获取流量与收益;另一方面,现有权利认定在“实质性相似”与“合理使用”之间仍有灰区。肖像权保护的是自然人可识别的面部特征,而生成内容往往游走在“看得出像”与“难以定性”之间。维权还需要完整的举证、鉴定与取证链条,时间与经济成本不低。技术推进快于制度完善,边界被有意或无意地模糊,成为争议集中爆发的重要背景。 影响:侵权外溢与信任受损,公共安全与产业生态承压 “近似人脸”生成若缺乏约束,首先受冲击的是人格与商业权益:未经许可使用他人形象、声音用于广告代言、短视频引流,可能同时触及肖像权、姓名权、名誉权等多项权益。其次,普通人同样可能被冒用,身份伪装、网络诈骗、虚假背书等黑灰产或借此升级手法,社会层面的身份核验与信息可信度将被削弱。再次,侵权内容一旦大量流通,平台生态与内容产业也会出现连锁反应:创作秩序被扰乱,合规成本上升,用户对平台内容的信任下降,最终不利于技术的健康使用与行业的长期发展。 对策:平台、行业与法律三端协同,从“事后补救”转向“事前划界” 针对涉及的风险,多家内容与工具平台已收紧管理:在生成工具端,部分应用限制“真人素材参考”等功能,提高真人校验门槛,要求通过本人形象与声音验证后方可启用相关能力;在内容发布端,一些平台建立分级处置机制,对疑似侵权内容采取限流、暂停发布直至封禁等措施,表达出“技术不是侵权挡箭牌”的信号。 此外,行业自律也在加快跟进。近日,中国广播电视社会组织联合会演员委员会发布声明,强调未经授权的换脸、声纹克隆、虚拟形象复刻等行为涉嫌侵权,即便标注“非商用”也不当然免责。业内认为,这类规则有助于统一认知、减少侥幸空间,并为平台审核与纠纷处理提供更明确的依据。 但要减少源头风险,仅靠平台治理与行业倡议仍不足。多方呼吁在立法与司法层面更细化标准:一是明确“实质性相似”的认定规则,形成可操作的判断要素与证据指引,降低维权不确定性;二是强化深度合成标识与可追溯机制,推动水印、指纹等技术规范在生产、传播、存证各环节落地;三是压实商业化使用的授权链条,对广告、代言、直播带货等高风险场景提高审核强度与违法成本;四是将技术伦理前置到产品设计与算法训练环节,设置默认保护、最小必要调用与风险提示,减少“先上线后整改”的滞后。 前景:在鼓励创新与守住底线之间形成稳定预期 受访人士认为,深度合成在影视制作、文化传播、无障碍服务等领域具有积极价值,关键在于边界清晰、责任明确。随着平台规则趋严、行业标准逐步统一、法律适用不断细化,未来有望形成“授权先行、标识必备、追责可及”的治理闭环。技术创新仍会继续,但应以人格权益保护为前提,以公共信任为底线。让合规更省成本、让侵权付出更高代价,才能推动相关产业在规范中发展、在发展中完善。
当技术发展速度明显快于社会规则更新时,如何在创新与保护之间取得平衡,成为绕不开的现实命题;此次争议不只是几张虚拟面孔的归属之争,更是在数字时代对权利边界的一次再确认。历史经验表明,颠覆性技术要走向良性发展,需要法律划定红线、行业建立标准、公众保持理性协同发力。唯有如此,才能在技术进步与人文关怀之间找到更稳妥的共识,让技术创新真正服务于人的尊严与发展。