生成式视频平台出现“一键套用”暴力殴打内容,平台治理与创作边界再受拷问

问题——暴力内容“套模板”传播,弱势群体被当成“剧情道具” 记者梳理网友反映发现,部分短视频以高度相似的脚本和镜头反复出现:两名施暴者将一人踢倒后持续脚踢头部,并伴随“往死里踢”等威胁性语言;由于生成画面逼真、动作连贯,容易引发强烈不适。有一点是,除一般殴打情节外,一些内容还把老年人、残疾人等弱势群体设定为被攻击对象,甚至出现扇女性耳光等桥段。有关视频通过反复套用模板、替换“出镜人物”快速扩散,表现为“模板化生产、批量化发布”的特征。 原因——制作门槛降低与审核跟不上叠加,放大“流量冲动” 分析其成因:一是生成式视频工具显著降低制作成本。用户只需输入提示词、选择人物,即可生成十余秒视频,传播链条从“拍摄—剪辑—发布”压缩为“输入—生成—发布”,违规内容更容易被快速试错和复制。二是部分创作者把暴力当作吸引关注的手段,以更强刺激性画面换取点击、互动与关注,形成“越出格越有流量”的错误导向。三是平台治理与技术迭代存在时间差。新模型带来更高拟真度与更多玩法,也增加了审核难度;若缺少有效的语义识别、动作识别、风险提示与人工复核联动,暴力内容就可能在“生成—发布—推荐”链路中漏审。四是举报处置闭环不顺畅。有网友反映举报后未见及时处置,客服反馈不足,导致违规内容滞留更久,继续扩大传播。 影响——不良示范外溢,冲击网络生态与法治边界 此类内容的危害不止于“看着不舒服”。其一,暴力情节被反复呈现可能带来模仿效应,尤其对辨别能力较弱群体形成不良示范,背离营造良好网络环境的要求。其二,将老年人、残疾人等作为受害者进行戏谑式、虐待式呈现,容易强化歧视与污名化,削弱社会对弱势群体应有的尊重与保护共识。其三,若视频可指向特定个体形象,或通过外貌特征、身份信息实现“可识别”,还可能引发人格权侵害风险。法律界人士指出,民事主体人格权受法律保护,相关内容若构成侮辱、丑化特定群体或个人,既违背公序良俗,也可能触及名誉权、肖像权、人格尊严等法律边界。其四,平台若未尽到必要管理义务,可能面临监管问责与社会信任受损的双重压力。 对策——压实平台主体责任,补齐“生成—发布—传播”全链条治理 受访法律人士表示,主动制作、传播、二次加工暴力内容均可能涉嫌违法违规,不能以“自动生成”“一键生成”作为推责理由。治理层面需多管齐下: 一是前置风险控制。对“殴打、虐待、踢头、致残”等高风险提示词建立强制拦截或降权机制,对涉及弱势群体的暴力指令设置更严格的生成限制与弹窗警示,必要时直接拒绝生成。 二是强化内容审核与复核机制。建立“算法识别+人工复核+重点账号巡查”的组合治理,对短时内批量发布同类暴力内容的账号实施限流、禁言、封禁等梯度处置,并对模板类内容设置复用阈值和风控触发条件。 三是完善举报处置闭环。明确受理时限与反馈路径,提高人工介入比例,对被多次举报的疑似暴力内容启动快速复核;对处置结果向举报人提供清晰反馈,提升治理透明度与可预期性。 四是推进账号与内容责任绑定。对频繁发布高风险内容的用户加强身份核验、行为审计与信用约束,形成“能生成也要负责”的机制。 五是加强普法与平台公约建设。以显著方式提示用户生成与传播的法律边界,明确禁止对老年人、残疾人等群体进行侮辱、虐待、暴力演绎等内容,推动形成更清晰的社区规则与惩戒标准。 前景——生成式内容进入深水区,治理需与技术同步迭代 随着生成式视频能力快速提升,网络内容生产正从“人人可拍”走向“人人可造”。这在拓展创作空间的同时,也对平台治理体系提出更高要求。下一步,关键在于将治理前移到模型能力与产品设计阶段,持续迭代风控策略,形成从训练数据规范、输出安全策略到发布传播管理的系统性安排。同时,监管部门、平台企业、内容创作者与公众需要形成合力,通过制度约束与技术治理并举,避免新工具被滥用于宣扬暴力、羞辱弱势、制造对立。

当技术赋予每个人“造梦”的能力,如何守住人性的底线就成了必须直面的命题。这起事件不仅暴露出平台治理的滞后,也提醒我们必须重视技术伦理。在数字化浪潮中,既不能以“风险”为由一味压制创新,也不能放任技术被用来制造暴力幻想。如何在发展与规范之间建立更有效的治理方式,是数字时代绕不开的问题。