华尔街机构预测半导体产业格局生变 定制芯片或重构全球算力市场版图

问题:算力需求高涨之下,芯片竞争从“单一供给”走向“多路线并行” ARK Investment于2月28日前后发布的研究观点引发市场关注。

ARK相关负责人在社交平台发文称,面向人工智能等工作负载的“定制芯片”预计将在2030年前后占据算力市场三分之一以上份额,并指出英伟达在数据中心加速计算领域的领先地位正面临更为复杂的竞争环境。

其后,ARK掌门人转发并评论称“英伟达的竞争对手来了”。

这一判断折射出一个现实变化:在算力需求持续攀升、成本与能效成为关键指标的背景下,芯片路线正从以GPU为中心的单极格局,向GPU、专用集成电路(ASIC)以及各类定制加速器并行的多元格局演进。

原因:成本、能效与供给安全驱动云厂商加速自研,“软硬协同”成为核心诉求 首先,人工智能训练与推理的总拥有成本持续走高。

大模型训练需要海量算力与长周期资源占用,推理侧则追求低延迟与高吞吐。

在此条件下,云厂商与大型平台企业倾向于通过定制芯片在特定场景实现更高的性能/功耗比,并以规模化部署摊薄研发与流片成本,从而提升整体运营效率。

其次,供给链与交付周期对业务扩张形成掣肘。

高端加速器长期处于紧平衡状态,交付节奏、采购成本与集群扩容计划相互影响。

自研或深度定制有助于增强资源可得性与可控性,减少对单一供应路径的依赖。

再次,软件栈与硬件架构的协同优化空间巨大。

大模型训练框架、编译器、算子库与系统调度等能力,决定了硬件算力能否高效释放。

云巨头掌握从应用到基础设施的全链条,可通过“芯片—系统—软件—服务”的一体化设计,将性能优势转化为产品竞争力。

ARK相关观点亦提及,行业对谷歌TPU较为熟悉,但亚马逊等企业的自研布局可能正在从“配角”走向“关键变量”。

影响:从“卖芯片”到“卖体系”,数据中心结构与产业分工或将重塑 一是服务器形态加速向“以加速器为中心”迁移。

ARK研判指出,传统通用服务器份额正被加速计算更快替代。

随着推理需求爆发与企业级部署普及,面向特定负载优化的ASIC与GPU将共同扩大在数据中心的占比,通用CPU承担的计算比例相对下降,数据中心采购与建设逻辑随之变化。

二是产业竞争重心从单一硬件指标转向综合能力较量。

未来竞争不仅在芯片峰值算力,更在互连网络、内存带宽、集群管理、软件生态以及开发者工具链。

对于云厂商而言,定制芯片既是降本增效手段,也是绑定客户、提升平台黏性的战略工具。

三是市场格局可能出现“多强并立”。

英伟达凭借成熟生态与持续迭代仍具优势,但随着云巨头投入加码、定制化方案成熟,部分工作负载可能从通用GPU转移至更具性价比的专用芯片或混合架构,进而改变增量市场的分配方式。

对策:企业需在路线选择、生态建设与风险管理上提前布局 对芯片与系统提供商而言,应加快提升平台化能力:一方面持续推进通用加速器的性能与能效,强化互连与系统级方案;另一方面通过开放软件生态、兼容主流框架、完善开发工具,降低用户迁移成本,巩固“生态壁垒”。

对云厂商与大型应用方而言,应平衡自研投入与商业回报,避免在标准不统一、迭代过快的阶段过度分散资源,同时通过分层架构实现“通用GPU+定制芯片”的组合部署,以适配训练、推理与数据处理等不同场景。

对产业链而言,需要关注先进制程、封装、存储与高速互连等关键环节的协同,推动从单点优化走向系统优化,并通过多元化供应与长期产能规划提升韧性。

前景:定制芯片份额上升或成趋势,但能否“改写格局”取决于三大变量 综合市场动向看,定制芯片扩张具备现实基础,但其最终能否在2030年前后达到ARK所预测的份额水平,仍取决于三方面:其一,定制方案在通用性与开发成本之间能否取得平衡,形成可复制的规模化交付;其二,软件生态与开发者支持能否跟上,避免出现“硬件强、应用难”的落地瓶颈;其三,供应链与制造能力能否匹配需求增长,尤其是先进封装与高带宽存储等关键资源的供给情况。

可以预见的是,未来算力市场将更像一场“体系战”:单一芯片性能固然重要,但更重要的是面向具体业务的端到端效率、总体成本以及稳定交付能力。

行业边界也可能进一步模糊,GPU、ASIC及各类加速架构在更多场景形成互补与融合。

芯片产业的这一转变标志着人工智能时代算力市场正在进入新的发展阶段。

定制芯片的兴起不仅将打破现有的市场垄断格局,更重要的是体现了技术进步与应用创新的深度互动。

在这一过程中,谁能更好地理解用户需求、整合产业链资源、实现技术与应用的无缝对接,谁就能在未来的竞争中占据主动地位。

这对于整个科技产业的发展,乃至人工智能技术的广泛应用,都将产生深远的影响。