ai 智能体在实际生活中的行为

Anthropic的团队在2 月 18 日把他们的研究报告给推出来了,这份报告是关于 AI 智能体在实际生活中的行为。虽然AI 智能体现在大家都知道了,但是大家还真不知道它们到底是怎么工作的。Anthropic 用了一种特别的方法,把数百万次的人机交互数据给分析了一遍,目的是为了看清楚 AI 智能体在部署的时候到底有多自主、风险在哪里、谁在监督它们。 研究人员发现,Claude Code 现在越来越能自己干活了。比如在 2025 年 10 月到 2026 年 1 月这段时间里,它能持续运行的最长时间从不到 25 分钟变成了超过 45 分钟。不过一般人用的时候,它还是一次只工作 45 秒左右。这种变化说明不是模型自己变强了,可能是因为用户更信任它,或者是任务变难了、产品优化了。 再看成功率那边,Claude Code 在最难的任务上表现特别好。从 2025 年 8 月到 12 月这段时间里,成功率翻了一倍。同时大家干扰它干活的次数也变少了,从平均每个会话5.4次降到了3.3次。这说明模型现在能自己解决的事情比大家想象中多得多。那些老手习惯用“全自动模式”,让 Claude 自己跑,只在必要的时候管一管;而新手一开始就只用20%的会话用全自动模式,等到用多了(超过750次),比例就能升到40%以上。 大家打断它的频率也从5%变成了9%。通过公共 API 的数据也能看到类似情况。像改改代码这种简单活儿,87%都有人在帮忙;但像找漏洞或者写编译器这种高难度任务,这个比例就降到了67%。因为复杂任务步骤多、审批难搞;而且做复杂任务的人可能本来就是高手。 模型自己也会限制自主性。在复杂任务里,它不确定就会停下来问问题的次数是人类打断它的两倍多;在最难的时候主动提问的次数也比人多。这说明智能体自己确认问题也是个好的监督手段。 在风险这块儿,大多数通过公共 API 干的事风险都不高也容易改回来。软件工程占了所有智能体活动的近50%,医疗、金融和网络安全这些领域也开始用上了AI智能体了。虽然现在高风险操作还不多见(占比极小),但万一出错了后果就挺严重。 当然这个研究也有缺点,比如只能看一家公司的流量、对公共 API 的会话看得不全等。基于这些发现,Anthropic 建议大家把监控做得更细、训练模型认识自己不清楚的地方、设计工具让人能有效监督模型,还有别太早规定具体该怎么交互。