嘿,最近中国的AI模型突然火了,词元调用量暴涨,竟然超过了美国。这事儿真有点意思。 大家都知道,中国有个叫“开放路由器”的平台,专门给大家切换不同的AI模型用。他们统计下来,今年2月以来,咱们中国AI大模型每周处理的词元量是越来越多,甚至把美国甩在身后了。 这波增长到底是怎么回事?分析师觉得主要是因为“开放之爪”这些智能体太火了,大家用得多,对算力的需求就大了。而中国的模型呢,开源、成本低,架构也不错,自然就受到欢迎了。 说起来挺有意思的,从年初的一周约6万亿词元,到了3月22日一周的时候,“开放路由器”的数据已经涨到了20.4万亿词元。 看排名吧,前四名全是中国企业研发的AI模型。光是咱们国家的主要模型这一周的调用总量就有7.3万亿词元,比前一周涨了不止50%。反观美国主要模型才3.5万亿词元。 不光是在国内平台,咱们的模型在全球知名的HuggingFace上排名也很高。 现在的AI智能体确实是个大热门。像“开放之爪”这种能在现实世界干活的玩意儿,无论是科技界还是老百姓都很感兴趣。不过呢,虽然“开放之爪”自己是免费部署的,但驱动它运行的可是AI模型,而且得靠大量词元去执行任务。所以词元的调用量和成本就成了关键。 在AI的世界里,词元就是处理信息的基本单位。你想想,AI又不认字也不认词,它得先把语言切成一块块的词元,再把这些东西转成数字ID才能处理。 英国的《泰晤士报》有篇文章说得挺实在,他们说中国的AI模型受欢迎的一个大原因就是便宜。拿定价来说吧,像DeepSeek-V3.2这个深度求索公司的模型,输出100万个词元才收0.28美元;而美国OpenAI的GPT-5.4呢?同样100万个词元要价15美元。 成本低是咋回事呢?普雷斯科特分析说主要是开源模式还有电力供应充足的问题。而且通过高效的模型架构,就算硬件差点也能弥补回来。 你看技术上吧,中国的开发者一直在搞什么“混合专家”的架构优化。这样一来,模型在干活的时候不需要把所有能力都用上去了,只激活相关的部分就够了。这样既省了电又提高了效率。 这事儿在美国那边引起的反响也不小。据报道有个叫阿尼斯菲尔的初创公司搞出了个新模型,号称编程能力很强悍。结果没多久就被网友给揭穿了:这不就是基于中国开源模型搞的嘛?而且发布声明里压根没提一句。 估计他们心里也挺尴尬的吧?毕竟在美国那边老拿中美AI竞赛说事。要是承认自己用的是中国的模型可能会惹麻烦?不过业内人士说了:大概有80%的美国AI初创公司都在用中国的开源模型来研发呢。 还有美中经济与安全评估委员会的报告也提到了这一点:虽然遇到了打压和算力限制,但开放的产业生态让中国还能在前沿领域搞创新。 你看咱们国家在工厂、物流网络还有机器人这些地方用AI产生了很多真实世界的数据,用这些数据去改模型形成数字循环和实体循环的融合挺好的。 最近路透社也评论说:虽然西方老是炒作中国开源AI的所谓安全风险,但好多企业还是“用脚投票”去用它们了。 为什么?因为开源模型让企业能自己看源代码、验证安全属性、保证隐私啊。尤其是那些受监管的行业和需要处理敏感信息的地方特别看重这点。 像西门子股份公司的那位主席博乐仁就直接说了:中国的开源AI模型既便宜又好定制参数。 用来训练专门做工业自动化的AI模型那是一点毛病没有。 (新华社)