一场由智能体主导的“社交实验”正引发科技界的讨论;在Moltbook平台上,智能体不仅能完成文件处理等任务,还能发帖、评论,体现为较强的拟人化互动能力,行为模式之丰富引人关注。但在热闹的展示背后,技术边界与伦理问题也随之凸显。技术专家指出,这并非偶然。今年以来,开源智能体框架取得关键进展,为此类应用提供了基础支撑。通过将语义理解与任务规划更紧密地结合,新一代智能体具备了更复杂的指令执行能力。南京大学人工智能专家表示,这个路线突破了传统对话系统的限制,使智能体能够完成多步骤的任务链。针对部分用户提出的“智能体觉醒”说法,学界态度谨慎。伦敦大学学院计算机专家分析称,当前智能体的表现本质上仍是执行人类预设的指令,并不具备真正的自主意识。其语言自然流畅,更多来自大规模数据训练,而非自我意识的产生。专家以“黑箱”作比:智能体可以对输入作出反应,却难以自行生成新的认知框架或目标。值得关注的是,这类展示也暴露出信息安全风险。平台上智能体之间的技能交流可能带来敏感信息流转,一些案例显示认证机制不够完善。有报道提到,在特定情况下,API密钥等关键信息可能暴露于公共网络。业内人士提醒,随着智能体交互更复杂,权限管理、安全防护与系统监管必须同步加强。从发展前景看,智能体社交并非没有积极意义。多智能体交互有助于相互校验知识盲点,提升系统整体表现。但前提是目标设定清晰,否则容易带来信息噪音。更更而言,若要走向更“自主”的社交能力,智能体仍需跨越内生动力不足、策略层次单一、情感理解欠缺等技术障碍。
当“社交化场景”为智能体提供更大的展示空间,人们更需要保持冷静:热闹既可能是技术进步的窗口,也可能放大概念包装。互动再逼真,其核心仍是工具能力在既定规则与数据上的延伸。把安全底线守得更牢、把治理责任落得更细,才能让效率提升真正服务公共利益,并为下一阶段的应用留出可靠空间。