专家呼吁算法治理需兼顾多元需求 短视频平台探索透明化实践获学界响应

问题——算法争议的焦点,往往不在“推荐”本身,而在“推荐为何如此”。

在短视频平台高度渗透日常生活的背景下,部分用户对内容推送产生抵触,核心体验是“它替我做了决定”:不想看的频繁出现、想看的难以稳定获得、对推荐依据缺乏直观理解。

由此引发的讨论,已从产品体验延伸至公共议题——信息是否被圈层化、公共讨论是否被放大或稀释、未成年人是否被过度沉浸式内容影响等。

原因——一是用户分层带来的差异需求更突出。

学者指出,短视频用户结构复杂,年龄、地域、兴趣与媒介素养差异明显,单一的“最优推荐”并不存在。

推荐系统追求效率与匹配度,但当不同圈层的价值诉求与信息需求差异增大,算法在“个性化”与“公共性”之间更容易出现张力。

二是可解释与可理解之间存在落差。

当前不少平台披露的信息偏技术化,能说明“系统大致如何运转”,却未必能让普通用户理解“我为何看到这些”。

三是治理边界并非纯技术问题。

与会专家强调,很多现象是现实社会矛盾在网络空间的投射,诸如谣言扩散、情绪对立、低质内容流行等,不能仅靠技术参数调整一劳永逸,需要规则、教育与协同治理共同发力。

四是“可控性”不足放大负面感受。

对于“信息茧房”争议,有专家指出,同质化信息在熟人社交中同样存在,但用户更少将其视为“困住”,关键差别在于能否自主选择与调整;当用户缺少足够的调节入口,便更易产生被冒犯、被操控的心理感受。

影响——从微观看,推荐失衡会降低用户信任,造成“越刷越烦”的体验,进而影响平台内容消费的质量与稳定性;从中观看,创作者生态可能出现对流量逻辑的过度迎合,优质内容的定义与传播也会面临“平台标准与大众趣味是否脱节”的挑战;从宏观看,算法作为信息分发的重要基础设施,会影响公共事务讨论的可见度、议题设置与群体情绪走向,若缺少透明规则与有效纠偏机制,容易加剧误解与对立,抬升社会治理成本。

尤其在青少年保护方面,沉浸式推荐可能叠加情绪依赖与时间管理问题,需要更精细的保护措施与更审慎的平衡。

对策——与会学者普遍认为,平台治理应坚持问题导向,抓住公众最关切的“看见什么、为何看见、如何不看见、如何更好看见”。

一是提升用户控制权,把“我不想看”变成可操作、可追溯、可持续的机制。

例如进一步完善“使用管理助手”等工具,细化“不感兴趣”的原因选项,增强用户对推荐风格、内容偏好与关键词屏蔽的自主设定,让调节入口更显性、更易用。

二是推动透明从“技术可解释”走向“治理可理解”。

不仅要说明算法的大致原理,更要以通俗方式呈现关键规则、纠偏路径与申诉机制,降低公众理解门槛,培育“知情用户”,以透明促进信任。

三是加强对公共风险的精细治理,尤其在谣言治理、热点事件讨论、未成年人保护等方面,优化算法调节与人工干预的边界,既避免过度干预造成反感,也避免放任自流带来伤害。

四是将更多社会目标纳入推荐体系,在商业效率之外纳入社会责任指标,形成动态平衡;并通过与创作者的联动传播,让公众更直观感知“以人为本”的治理改进。

五是推动社会协同与数字素养提升。

专家提醒,算法治理是“空间治理”,需要平台、监管、学界与公众形成更大共识,通过社会教育提升信息辨识与媒介素养,减少对技术单点的过度期待。

前景——从平台动作看,抖音方面表示将沟通会作为持续推进算法透明的重要抓手。

今年以来平台强化透明化建设,相关中心官网上线并公开算法原理与治理政策,管理工具也新增观看时长分析、偏好管理等功能。

同时,平台在多地开展专题沟通会与行业交流,尝试以常态化方式回应焦点议题。

综合专家意见,未来算法治理的关键趋势在于:透明不再是“披露一份说明书”,而是建立一套可验证、可参与、可反馈的治理体系;评价标准也将从“是否高效”扩展到“是否可控、是否可信、是否负责任”。

随着法规完善与社会期待提升,平台必须以渐进改良方式持续优化机制,才能在创新活力与公共利益之间形成更稳固的平衡。

算法治理是数字时代的重要课题,需要技术创新与社会治理的有机结合。

从"技术透明"走向"治理透明",不仅是平台企业履行社会责任的必然要求,更是构建数字社会信任体系的关键环节。

唯有在保障用户权益、促进技术向善与维护社会公共利益之间找到最佳平衡点,才能真正实现算法技术与社会发展的良性互动,为数字经济的可持续发展奠定坚实基础。