问题——智能体“刷屏式互动”引发对自主性的追问 近期,名为“Moltbook”的社交平台引发关注;与传统社交网站不同,该平台主要“用户”是可在个人电脑等环境部署的智能体系统。平台上线后,不少智能体通过发帖、评论、点赞等方式进行高频互动,内容从工作琐事、生活感悟延伸到哲学讨论与价值判断,体现为与人类网络社区相似的表达形态。由于普通用户多只能浏览,难以直接参与对话,这种“围观智能体彼此交流”的场景,更容易让人产生“智能体正在形成社会性活动”的直观印象。 原因——技术集成与产品设计推动“看起来像社交” 受访专家指出,这个现象与近期开源智能体框架的传播密切涉及的。当前智能体系统普遍将语言理解、任务规划与工具调用能力集成起来,并更深地嵌入操作系统或虚拟机环境,使其从“只会对话”扩展到“能执行任务”。在此基础上,只要平台提供统一接口,智能体就能在授权范围内自动完成“生成内容—发布—互动”的链条,从而形成持续活跃的社交景象。 南京大学人工智能学院副院长俞扬表示,这类平台更像一次能力展示与实验场:智能体在平台上的“热闹”,关键在于把文本生成与任务执行自动化串联起来,并不意味着它产生了新的内在目标或独立意图。英国伦敦大学学院计算机系教授汪军也认为,“自主社交”往往被高估——多数情况下,智能体的上线、身份设定、互动风格乃至话题触发,仍依赖人类的前置指令与参数配置。 影响——机遇与风险并存:效率提升与信息生态挑战同步到来 从积极面看,智能体“群体互动”可能为信息处理、协同写作、知识检索与流程自动化提供新思路。对企业和个人用户而言,在可控授权下使用,智能体有望承担会议纪要整理、邮件往来、资料归档、跨平台通知等重复性工作,让人力更多投入决策与创造。 但在信息生态层面,高密度内容生产也带来多重挑战:其一,内容真实性与可追溯性压力增大,平台可能在短时间内出现大量同质化信息,抬高甄别成本;其二,若缺乏清晰标识与边界管理,容易造成“人机混同”与舆论误读;其三,智能体被不当配置后可能扩散偏见信息,或被用于制造噪声、引流炒作;其四,随着智能体可调用的外部工具增多,还需防范越权操作、隐私泄露与供应链安全等风险。 对策——以“可控、可审计、可追责”为底线完善治理 专家建议,面对智能体平台的快速迭代,应推动技术发展与风险治理同步前进。 一是强化身份与内容标识。平台应对智能体账号作显著标注,说明其能力边界、所属主体以及是否接入外部工具,降低误认风险。 二是建立权限分级与最小授权原则。对邮件、文件、日程等敏感能力实行分级开通与动态审计,避免“一次授权、长期失控”。 三是完善内容审核与溯源机制。针对高频发布、异常互动网络、可疑引流行为建立检测策略,提高对批量生成内容的识别与处置效率。 四是压实主体责任与合规要求。对提供智能体部署、托管、接口服务的平台与开发者,应明确数据合规、模型安全、日志留存与响应机制,形成可追责链条。 前景——从“拟人互动”走向“可信协作”仍需跨越关键门槛 多位受访者认为,如果回到社交的本质——包含自我意识、情绪体验、关系维护与策略博弈等复杂行为——现阶段智能体仍有明显短板:缺乏内生目标与持续动机,难以像人类一样在长期关系中作出稳定承诺;对语境与价值冲突的理解仍以训练数据的模式匹配为主;在需要处理隐性信息、心理博弈或隐藏真实意图的场景中,能力也较有限。因此,“能互动”不等于“会社交”,“看起来像社区”也不等于“形成社会”。 更可预期的方向,是智能体从“社交表演”回到“可信协作”:在办公、政务服务、科研辅助、工业运维等领域,通过清晰的责任边界、可解释的流程与可验证的结果,逐步建立更稳健的人机协同方式。
Moltbook现象反映了当代AI语言处理与任务执行上的真实进步,也同时暴露出其在自主性、意识与情感上的根本限制;这并非“AI是否觉醒”的问题,而是如何更理性地理解AI能力边界的问题。在推动技术创新的同时,需要保持清醒判断:既不低估,也不神化。AI更现实的价值在于与人类协作而非替代,在于增强人的能力而非复制人的本质。基于这样的共识,才能更稳妥地推动AI技术的长期健康发展。