谁能想到,2026年咱们过年居然能让AI替咱们拜年了?这不,短视频平台上到处都是那种看上去像是真人在说话的拜年视频,陈佩斯、姆巴佩,甚至是哈利·波特里的马尔福一家和福尔摩斯、华生都穿上了中式服装,跟大家打招呼。这种新玩法看着挺有意思,但背后的法律风险大家可得提防着点。 北京一中院的法官助理王帅专门提过,直接拿别人的照片或者声音来生成视频,这就可能侵犯人家的肖像权和名誉权。比如说你要是随便把个名人的脸换到自己视频里,甚至放到那种低俗的场景里,人家肯定不乐意。陈淼璐也说了,法律管声音也跟管肖像一个样,要是你在未经同意的情况下克隆了人家的声音,用来搞些乱七八糟的事,那也是不行的。 其实呢,想跟明星同框没那么难。像那个什么“2026年春节晚会”的特效模板,你点一下“拍同款”,随便传张自拍照就能混进舞台上跟主持人握手了。这一招中老年网友特别爱用。还有那个和泰勒·斯威夫特一起庆祝新年的特效也挺火,据说已经有4万人用过了,大家都把合成的合影发到网上去炫耀。 不过这种“一键生成”的过程看似顺畅,其实平台完全没给你提示侵权风险。比如上海秦兵(北京)律师事务所的刘馨远律师就提醒了,平台要是随便提供这种侵权模板或者不管用户用了别人的素材,那就要负法律责任。他建议平台最好给用户多提个醒,加强审核力度。对于那种频繁用明星照片的用户,要是能让他们提供授权证明就再好不过了。 记者自己也试过用国产的AI软件上传明星照片来生成视频结果就被平台给挡住了。“直接垫图肯定不行,”有用户支招说,“你可以不直接上传照片,在软件里输入详细的‘提示词’,软件就能按照你说的生成含有人物的AI视频。”这样一来虽然不用传图了但风险还是存在的。 法律规定得清清楚楚:未经肖像权人明确同意,谁也不能随便制作、使用、公开他们的肖像或者声音。所以那些把王帅、陈佩斯这些公众人物拿来搞怪的行为肯定是不行的。当然了AI技术的普及确实给大家带来了很多乐趣,技术越方便咱们越得有规则意识啊。