阶跃星辰推出新一代开源基座模型 多家芯片巨头完成适配助力产业升级

在大模型从“训练驱动”向“推理驱动”加速转换的当下,如何在真实业务场景中实现高效率、低成本、可持续的智能能力供给,成为行业共同面对的关键问题。

面向实时Agent工作流的需求增长,阶跃星辰发布新一代开源Agent基座模型Step 3.5 Flash,提出以更高推理效率、更稳定的工程表现支撑应用落地的产品思路。

问题在于,实时Agent类应用对响应时延、并发吞吐与稳定性提出更高要求。

不同于离线文本生成等相对宽松的任务,Agent往往需要在“感知—规划—调用工具—执行—反馈”的闭环中快速迭代,任何环节的延迟都会被放大,直接影响用户体验与业务效率。

同时,企业在部署大模型时还要综合评估算力采购、推理费用、系统运维与安全合规等成本,形成“能用、好用、用得起”的现实门槛。

造成上述问题的原因,一方面在于模型规模持续扩大,推理阶段算力消耗与能耗压力上升;另一方面在于模型与硬件、编译器、推理框架之间存在适配成本,若缺乏协同优化,往往出现“模型能力强但运行效率不匹配”“成本可控但效果受限”等矛盾。

随着推理模型逐步成为主流,行业竞争的焦点也从单纯比拼参数规模,转向比拼推理效率、工程稳定性与生态兼容性。

据介绍,Step 3.5 Flash采用稀疏MoE架构,通过稀疏激活方式提升计算效率:在总参数规模较大的情况下,每个token仅激活约110亿参数,从而在保持能力表现的同时提高推理吞吐并降低单位任务成本。

公开信息显示,该模型在单请求代码类任务中最高推理速度可达每秒350个token,体现出对实时交互场景的针对性优化。

对于企业与开发者而言,这类以“速度—能力—成本”综合权衡为目标的模型路线,有助于缓解推理端资源压力,提升面向业务的可用性。

影响层面看,模型侧的效率提升若与算力侧的适配优化叠加,将进一步降低大模型应用门槛。

包括华为昇腾、沐曦股份、壁仞科技、燧原科技、天数智芯、阿里平头哥等在内的多家芯片厂商已完成对Step 3.5 Flash的适配,通过底层联合创新提升适配性与算力效率。

这种从“模型发布”走向“软硬协同”的路径,既有助于提升算力利用率,也为不同算力平台上的应用迁移与规模部署提供更现实的选择空间。

对产业链而言,开源模型与国产算力适配的推进,有望带动从芯片、框架到行业应用的联动迭代,促进生态扩容与应用创新。

对策方面,业内普遍认为,推动大模型规模化落地需要从“单点突破”转向“系统工程”。

一是强化模型、芯片、编译与推理框架的联合优化,围绕算子、并行策略、内存调度与通信效率等关键环节持续打磨,提升端到端吞吐与稳定性;二是面向场景优化模型能力结构,以代码、工具调用、结构化输出等能力为重点,减少无效计算;三是完善开源生态的工程规范与适配工具链,降低企业二次开发成本,提升可维护性与可复用性。

公开信息显示,阶跃星辰于2025年7月联合近10家芯片及基础设施厂商发起“模芯生态创新联盟”,旨在打通芯片、模型与平台间的技术壁垒,通过联合优化提升算力利用效率,推动行业应用更快落地。

前景判断上,随着推理需求持续扩大,模型与算力的深度协同将更具战略意义。

一方面,稀疏化、量化与高效推理等技术路线将进一步成熟,推动“同等效果更低成本、同等成本更高效果”的迭代;另一方面,面向Agent的工具链、评测体系与安全治理将同步完善,决定应用是否能在金融、制造、政务、教育等关键领域稳定运行。

可以预期,未来竞争不再局限于模型本身,而是扩展为“模型—算力—平台—场景”的综合能力比拼,谁能形成更稳定的工程体系、更开放的生态协作与更清晰的场景闭环,谁就更可能在规模化应用中占据先机。

大模型的发展已进入深水区,单纯的参数规模竞争正在让位于效率和成本的竞争。

阶跃星辰推出的Step 3.5 Flash模型及其背后的模芯协同生态,为业界提供了一条可行的发展路径。

这条路径的核心在于,通过开源、开放的方式,汇聚产业链各环节的力量,实现模型、芯片、平台的深度融合。

随着更多参与者加入这一生态,大模型在实际应用中的成本障碍将进一步降低,其在各行业的落地应用也将迎来新的加速期。

这种从"单兵作战"向"生态协同"的转变,或将成为决定大模型产业未来竞争格局的关键因素。