你见过AI给亲友整蛊拜年没?春节时候大家爱用AI换脸做个小视频,或者用它模仿长辈说话声音发祝福,这技术现在可真流行。不过北京一中院的法官提示说,这些“AI整蛊”可别玩大了,很容易碰法律红线。 像北京一中院的王帅助理就说,给人换脸做视频发出来,其实就是侵犯了人家的肖像权。未经同意擅自给别人的脸P到影视片段或者搞笑场景里,把这当“数字拜年”来发,这就直接干涉了肖像权人的自主决定权。要是把人家的脸放在那种荒诞、低俗或者误导人的地方,容易让人对被换脸的人产生坏印象,这又侵犯了名誉权。这时候被侵权的人可以告对方让他停止侵害、赔礼道歉,还可以要求赔偿精神损失。 还有陈淼璐助理提到的AI仿声拜年。现在不少人爱在微信圈里发一段模仿爷爷的声音催促晚辈早点成家,或者用名人声音开玩笑说点祝福的话。根据《民法典》的规定,这种清晰能听出来是谁的声音权益跟肖像权一样受保护。如果没经过声音本人同意就私自录下来克隆出来用,比如在微信群里模仿同事的声音说些不该说的话,哪怕是开玩笑也可能损害同事在公司里的形象。这时候行为人就得赔礼道歉、消除影响。 最严重的是那些为了好玩或者吸引流量,用AI编造假新闻、伪造现场画面或者名人语录来传播的人。这种行为容易引起大家误解和恐慌。按照《治安管理处罚法》,故意散布谣言谎报险情、疫情或者警情的人最高要拘留10天,还要罚500元;情节轻一点的也会被拘留或者罚500元。如果是编造那种跟灾情报警相关的假信息在网上传开导致社会秩序混乱,那就触犯刑法上的编造、故意传播虚假恐怖信息罪了。 法官建议大家春节祝福还是要健康向上、善意点。用AI的时候得讲良心讲规矩。如果确实被侵权了就得赶紧收集证据去告他们维权。