问题: 当前,AI生成内容在社交平台的广泛应用,催生了仿冒公众人物形象、虚构猎奇事件、传播低俗暴力等一系列乱象。
部分账号通过未标识的AI合成视频恶意博取流量,甚至借虚假火灾、犯罪等内容扰乱公共秩序。
小红书等平台近期收到的用户举报显示,此类行为不仅侵害公众人物权益,更严重损害社区信任基础。
原因: 技术门槛降低与流量利益驱动是乱象滋生的主因。
AI工具的普及使得内容合成成本大幅下降,而部分运营者为追求点击量,刻意规避平台审核机制。
此外,相关标识规范执行不严、用户辨识能力不足,也为虚假信息传播提供了空间。
网信部门通报的典型案例中,既有利用AI换脸伪造名人言论的牟利行为,也有通过魔改动画角色毒害未成年人身心健康的违规操作。
影响: 未标识的AI内容泛滥已对网络生态造成三重冲击:一是混淆真实与虚构界限,削弱公众信息甄别能力;二是消耗平台治理资源,增加内容审核成本;三是助长“劣币驱逐良币”现象,挤压优质原创内容生存空间。
更值得警惕的是,部分境外势力可能利用该技术制造社会对立,威胁国家安全。
对策: 平台与监管部门正形成治理合力。
小红书依据《人工智能生成合成内容标识办法》,建立“主动标识+系统检测”双轨机制,对未声明内容限制分发;网信部门则通过“清朗”专项行动,下架违规商品1342件,封禁教唆去除AI标识的教程账号。
中央网信办特别强调,春节期间将重点整治AI生成的“数字泔水”——即逻辑混乱、高度雷同的低质信息。
前景: 随着《网络信息内容生态治理规定》等法规持续完善,AI内容治理将步入标准化轨道。
专家建议构建“技术识别+人工复核+用户举报”立体监管体系,同时探索区块链存证等新型溯源手段。
平台方需承担主体责任,通过流量倾斜等方式激励合规创作者,最终形成“透明创作—有序传播—健康消费”的良性循环。
生成合成技术的价值在于提升创作效率与表达边界,但其社会边界必须以透明标识与可追溯责任为前提。
以标识制度为抓手、以平台治理为支点、以依法监管为保障、以公众监督为补充,才能在创新与秩序之间找到平衡点,让技术更好服务真实信息传播与健康网络生态建设。