随着人工智能技术快速发展,AI生成的虚拟博主凭借逼真形象在社交平台吸引了大量关注。但不少账号未按规定标注“AI生成”身份,引发争议。其背后折射出平台监管薄弱、法律认知不足等问题。虚拟博主无标注现象较为普遍。据了解,一些AI生成的“颜值博主”账号仅发布两个作品就能积累上千粉丝,部分小品牌商家也因投放成本较低而与这类账号合作带货宣传。这些虚拟博主往往存在一些可辨识特征,如表情偏僵硬、模板化明显、光线不自然等。但通过人工微调、混合配音、PS修图等方式,不少内容仍能绕开平台审核,降低被识别的概率。有业内人士透露,平台对AI内容存在一定限流倾向,一些账号通过“降AI率”等处理获取更多流量,更助长了不规范行为。平台识别能力仍有明显短板。记者对哔哩哔哩、微博、抖音、快手、小红书、视频号等六个主流平台测试发现,虽然部分AI视频已被标识,但仍有不少未标注内容持续传播。测试中,六个平台在发布环节均未主动提醒创作者进行AI生成内容标注,说明平台的主动识别与提示机制仍不完善。同时,即便用户举报,部分平台的处置力度也不够,有时仅限制推荐而不要求补充标识。法律框架已为规范提供依据。北京卓浩律师事务所张建律师指出,自2025年9月1日起施行的《人工智能生成合成内容标识办法》为治理提供了明确的法律基础。该办法规定,用户发布生成合成内容应主动声明并使用标识功能;服务提供者应建立识别、标识、存储等机制。未添加标识本身属于行政违法行为,也可能成为后续法律责任的起点。商业化使用带来多重法律风险。若AI生成图片被用于带货、销售或广告,未作显著标注且与实物存在重大差异,足以误导消费者认知的,可能构成虚假广告,违反《中华人民共和国广告法》。这类行为同时侵害消费者的知情权和公平交易权。消费者若因误导性信息作出购买决定,可能依法获得救济。由此,不规范的AI带货行为或将面临行政处罚与民事赔偿的双重风险。平台责任有待进一步压实。作为网络信息内容传播服务提供者,平台应建立完善的AI内容识别、标识和存储机制,对用户发布的生成合成内容进行主动识别与提示。现实中,部分平台在技术投入和执行力度上仍显不足,既未能有效识别,也未能对违规账号及时处置。这既暴露出技术能力的局限,也反映出对法定义务落实不够到位。监管执法同样需要跟进。随着《标识办法》施行,有关部门应加强对平台和内容发布者的监督检查,对违规行为及时查处。同时完善举报渠道,鼓励公众参与监督,推动形成多方共治的治理格局。
当技术快速迭代与规则落地存在时间差,“真实与虚拟”的边界问题正在成为数字时代的治理新课题。如何在鼓励创新与保护权益之间找到平衡,不仅考验平台的治理能力,也需要创作者、监管者与消费者共同参与,推动形成更透明、更健康的内容生态。正如法学专家所言,“技术进步不应成为规避责任的借口,而应成为提升透明度的工具”。