最近发生的两件事让大家挺心烦,一是演员王劲松被AI深度伪造去骗钱,逼真到连他家人都没看出来;二是复旦大学肖仰华教授的团队搞出了个AI智能体,能自己发朋友圈、回评论,朋友甚至问这到底是不是真的肖老师。一边是坏人用AI“假扮别人”搞诈骗,一边是学术研究让AI“代替自己”做展示,虽然看起来方向不同,但结果都是让人突然分不清谁是谁。 一旦你的脸、声音、动作都被AI完全学走或者代理,大家赖以生存的信任根基就会动摇。仔细想想,这两种“假人”带来的麻烦和解决办法也不一样。AI伪造视频是人为设计的骗局,它污染的是信息的事实层。监管在这方面老是落后一步:法律虽然规定生成式内容要标注AI,但那些灰产一直在和监管玩躲猫猫;面对海量的假信息,平台审核机制也跟不上;王劲松还说法律对违法者的处罚太低了。 而AI智能体的问题更深刻,它已经开始干涉人们怎么表达观点和互动情感了。这个智能体能自己发朋友圈、回评论,说明它的能力从静态的冒名顶替变成了动态的行为代理。这就引出了一堆新问题:AI能不能有法律身份?它做事的伦理界限在哪?出了事谁来负责?这对现有的社会规则来说是个全新挑战。 AI模仿甚至取代人类能力的时代已经来了。我们不能指望技术停下或慢下来,而是得制定一套像交通规则一样清晰的规矩。对于作恶的AI假人必须重罚提高成本,对于前沿的创新也得明确权责。咱们得把“证明我是我”这种荒诞事儿赶紧结束了。