算法治理还得跟法律、标准还有教育连起来

最近在上海举行的一场专家研讨会,把平台社会责任还有透明度建设推到了学界讨论的风口浪尖。大家都说,现在算法不光是用来发消息或者推内容的工具,它在整个社会生活里的角色越来越重,所以它要怎么负责、怎么管也成了大家最关心的事儿。这次会议上,高校的专家们聚在一起聊了很多,主要是关于算法能不能让大家看明白、怎么保护用户权益、还有怎么把平台生态弄得更健康。 其实算法这块儿挺矛盾的,一方面它让信息分发更快了,另一方面也出了不少难题。现在用户群很不一样,各层圈的需求复杂多样,算法得在给你个性化推荐跟顾全大局之间找个平衡。还有一部分人对算法还挺没底的,总觉得自己被冒犯了或者失控了,这说明算法现在的透明度和可控性确实不够。另外在讨论公共话题或者保护青少年心理这些方面,算法的影响也还得好好评估和规范一下。 分析下来,算法治理为啥这么难?既有技术上搞不定的地方,也跟社会结构太复杂有关。首先算法设计的逻辑很多是按照数据模型和赚钱的目的来的,很难照顾到各种不同的社会价值观和人的情感需求。再者是现在说的透明主要是在技术上能解释清楚,但普通人能不能听懂还是个门槛。更关键的是算法出来的问题往往是现实矛盾在网上的反映,像信息茧房、内容太像这种问题得跨领域一起合作才能解决。 要是把这个事管好了对谁都有好处。对平台来说优化机制加上把事情摊开说能让人更信任;对大家来说学了怎么用工具就能更好地掌控信息;对整个社会来说就能把网络环境弄得更清朗。针对现在的问题,学者们提了几个点子: 一是不能只盯着技术透明看,要把治理透明搞起来。通过放开数据、公布规则让公众参与进来监督。 二是要把保护用户权益的工具做得更完善,让大家自己选要看啥内容。 三是平台得负起责任来,把社会效益放进设计里去。 四是大家一起动手干,学界研究、行业自律还有政策引导形成一股合力。 往后看还是得坚持慢慢来、大家一起管的路子。平台得建立个长期聊天的机制,老听公众的意见和专家的建议。算法治理还得跟法律、标准还有教育连起来,通过制度保障加上人文关怀让技术更好地服务于人。算法不光是个工具也是承载社会价值的东西,它想往好的方向走肯定不容易,得把技术理性跟人文关怀放在一块考虑。 平台责任和社会监督得并行不悖才行。只有在透明、包容、协同的框框里不断摸索,算法才能真正起到正面的作用。只有这样才能为数字时代的信任还有文明进步打下坚实的基础。