围绕合成名人音视频在平台传播的现象,舆论焦点正从“好不好玩”转向“能不能做、谁来负责”。
近期,部分平台出现大量利用合成技术生成的名人影视片段,画面与声音逼真,易使观众误以为名人本人参与创作或授权发布。
相关内容获得较高传播量与互动量,随之而来的,是权利归属、收益分配与社会风险等一系列问题的集中暴露。
问题:从“二创娱乐”到“以假乱真”,权利边界被模糊化。
早期的剪辑、配音和模仿多以致敬经典、表达创意为主,公众对其接受度相对较高。
但当合成内容足以造成混淆、并以名人影响力为核心吸引流量时,其性质已发生变化:一方面可能侵犯影视作品著作权及相关权益,另一方面可能触及对自然人肖像、声音等人格利益的侵害。
更重要的是,若平台提供的生成工具与分发机制与流量收益深度绑定,“合成—传播—变现”链条一旦形成,治理难度将显著上升。
原因:技术门槛下降与变现机制强化,推动灰色套利空间扩大。
合成模型能力提升,使得“仿真画面+仿真声音”可以低成本批量生成;部分创作者利用名人识别度快速获取关注,实现广告分成、带货引流或账号增值。
同时,一些生成工具被包装为平台功能或付费权益,客观上强化了供给侧能力。
若训练数据来源不清、授权链条缺失,合成内容便可能建立在未经许可的影视片段、公开采访或节目音视频基础之上,导致侵权风险外溢。
再叠加算法推荐追求停留时长与互动量的机制,越“像”、越“猎奇”的内容更容易被推高,形成“劣币驱逐良币”的传播效应。
影响:不仅是版权纠纷,更可能冲击社会信任与公共安全。
一是对权利主体的损害更隐蔽、更难量化。
名人形象与声音具有稳定的商业价值,合成内容若被用于广告化表达或商业引流,将造成价值被稀释、授权体系被破坏,甚至引发不当关联与名誉风险。
二是对平台生态与产业秩序构成挑战。
未经许可的大规模合成与传播,可能削弱正版内容与合规创作的竞争力,挤压行业的可持续空间。
三是对公众辨识与社会治理带来压力。
当“逼真”成为常态,普通用户更难判断内容真伪,谣言扩散、虚假背书、诈骗引流等风险上升,进而动摇社会信任基础。
合成技术若被用于制造“权威人士背书”“名人紧急求助”等场景,其危害将远超娱乐范畴。
对策:以法律为底线、以平台为关键、以标识为抓手,形成可操作的治理闭环。
首先,必须明确权利边界。
影视作品著作权、表演者权利以及与角色相关的衍生权益均受法律保护;自然人的肖像权、声音权等人格权益同样有明确规范。
合成内容若涉及“可识别”的人物形象或声音,应建立授权与合规使用的前置条件,至少应具备清晰的权利来源说明与使用范围约束。
其次,平台责任需要从“事后下架”转向“事前防控+过程管理”。
对合成生成工具,应在产品层面设置强制提示与风险拦截,对涉及真人的生成场景提高门槛,建立实名认证、用途声明、风险分级、生成记录留存等机制;对发布与传播环节,应强化对“疑似仿冒名人”“疑似商业化营销”的审核策略,完善投诉受理、快速处置与纠纷协同机制。
再次,推广显著标识与可追溯技术。
对合成内容进行显著标注,降低公众误认概率;对生成链路建立可追踪的水印或指纹机制,为后续维权、取证与执法提供支撑。
最后,行业与监管部门可探索更细化的规则衔接,例如对商业化使用、广告植入、带货导流等高风险场景设置更严格的审查与责任分担标准,同时加大典型案例的公开释法力度,以形成清晰预期。
前景:技术仍将快速演进,治理要从“应急式补丁”升级为“制度化能力”。
可以预见,合成音视频将更逼真、更易用,未来商业营销、内容生产乃至公共传播领域都会面临“真假混合”的新常态。
治理的关键不在于简单阻断技术,而在于建立与技术发展相匹配的规则体系:明确授权、强化标识、压实责任、完善救济、提高公众媒介素养。
只有让合规成本低于违规收益,才能真正减少灰色套利空间,推动创新在可控边界内释放价值。
人工智能技术本身没有道德属性,其应用的善恶取决于人的选择。
当前,我们面临的不是要不要发展AI的问题,而是如何让AI技术在保护个人权益、维护社会秩序的前提下造福人类。
这要求我们既要尊重技术创新的规律,也要坚守法律和伦理的底线。
只有在权利保护、平台责任、法律完善和社会共识的多管齐下中,才能让新技术真正成为推动社会进步的力量,而非成为侵害权益、制造混乱的工具。