知名演员王劲松公开谴责数字肖像侵权 呼吁加强人工智能技术监管

近日,中国内地知名演员王劲松在社交媒体发文称,自己的形象被他人非法盗用,用于生成虚假视频内容;他表示,这类AI合成视频在声音、口型等细节上已高度逼真,甚至家人也难以准确辨别真伪。事件曝光后,有关违规视频已被删除,但由此暴露的问题并未因此消失。王劲松的遭遇并非个案。随着深度学习和生成式AI技术快速普及,AI换脸、声音合成等应用越来越常见。这些技术在娱乐、教育等领域有合理使用空间,但也被不法分子用来制作虚假视频、冒充他人身份、实施诈骗等违法行为。由于知名度高、素材易获取,公众人物往往成为此类侵权的重点目标。 从法律层面看,我国对AI生成内容的规制仍存在一定滞后。尽管肖像权、名誉权等民事权利已有法律保护,但针对AI换脸等新型侵权的认定标准、责任边界和处置机制仍不够细化。一些侵权者借此以较低成本反复实施侵害。王劲松在评论中提到侵权者的代价“可以忽略不计”,折射出取证难、追责难与震慑不足等现实问题。 更值得警惕的是,深度合成技术的滥用可能更演变为更具破坏性的犯罪手段。虚假视频不仅可能侵害肖像权,还可能被用于诈骗、敲诈勒索、造谣传谣等,危害范围更广。一旦有人利用AI技术冒充他人进行金融诈骗或其他犯罪,后果可能难以控制。相关风险已引发社会层面的持续关注。 应对此挑战,需要多方合力推进。首先,应加快完善相关法律制度,明确AI生成内容的责任主体与法律后果,提高违法成本,增强震慑力度。其次,互联网平台应强化内容治理能力,完善审核机制,提升对深度合成内容的识别与处置效率,减少违规传播空间。再次,技术企业应在产品设计与服务流程中强化合规与伦理约束,完善用户身份核验、使用授权与风险提示等机制,降低被滥用的可能。最后,公安、网信等部门应加强协作,依法严打利用AI换脸实施的违法犯罪,形成持续高压态势。 ,提升全社会的媒介素养同样重要。公众应增强风险意识,对来源不明的视频内容保持审慎,避免轻信和传播。教育机构也可将媒介素养与信息辨识能力纳入教学与培训,帮助人们在信息环境中更有效地识别真伪、降低受害风险。

从名人形象被盗用到可能被用于诈骗,深度合成带来的挑战已从个体权益延伸到社会治理层面。遏制滥用不能只停留在事后下架,更要压实平台责任,明确追责对象,把防范前置到技术与制度环节。让创新在规则内发展,让造假在监管下受限,才能既守住人格权益的底线,也守住公众信任与安全的防线。