美光科技发布新一代高性能存储解决方案 助力人工智能服务器效能突破

随着大模型训练和推理服务的快速发展,数据中心的核心矛盾正从“算力是否够用”转向“数据能否匹配计算需求”。在AI服务器中,GPU/加速器的并行计算能力大幅提升,但如果显存带宽、主存吞吐和存储I/O无法同步跟进,就会导致计算单元空转、作业等待和能耗增加。带宽与能效已成为制约系统规模化部署的关键瓶颈。 此瓶颈的成因主要有三点:首先,模型参数量和上下文长度的增长显著提高了显存与内存需求,单卡、单节点需要处理更大的数据集和权重;其次,训练阶段需要频繁的梯度交换和权重更新,推理阶段则追求更低延迟和更稳定的吞吐,这些都对内存带宽和延迟提出了更高要求;第三,在成本和供电限制下,数据中心更注重“每瓦性能”,单纯增加硬件数量已不可持续,必须通过更高效的内存与存储技术实现系统级优化。 针对这些问题,美光在GTC 2026上发布了三类关键产品,旨在从显存、主存到存储全链路缓解数据供给压力: 1. HBM4量产:36GB 12层堆叠HBM4已量产,专为下一代AI平台设计。其引脚速率提升至11Gb/s,内存带宽达2.8TB/s,较上一代大幅提升,能效提高20%以上。这意味着在相同或更低功耗下,单加速器可获得更高数据吞吐,减少训练等待时间并提升多卡并行效率。 2. 大容量HBM4样品:48GB 16层堆叠HBM4样品同步推出,提高了单封装容量。对于高密度训练场景,更大的显存池可减少分片和通信开销,降低系统复杂度,并为更大批量、更长序列的训练任务提供支持。 3. 服务器主存升级:推出SOCAMM2内存模块,面向下一代机架级系统和CPU平台,单颗CPU支持更大内存容量,并优化了带宽峰值指标。主存扩容和带宽提升有助于加速数据预处理、参数管理和多任务并发,减少主存与加速器之间的数据传输阻塞。 4. 高速存储方案:9650 PCIe Gen6数据中心固态硬盘已量产,顺序读速和IOPS等关键性能较上一代翻倍,同时优化了每瓦性能。对于AI集群来说,更快的存储和更高的并发能力可缩短数据加载、检查点写入与恢复时间,降低训练中断成本,并确保推理业务在高峰期稳定运行。 从产业链协同的角度看,未来提升AI服务器效能不能仅依赖硬件单点突破,而需推动“计算—内存—存储—网络”的联合设计与优化: - 提前规划内存与存储规格,减少代际切换带来的适配成本; - 通过软硬件协同优化编译、算子融合、缓存策略和I/O调度,提高带宽利用率; - 以能效为导向完善数据中心建设方案,优化供电、散热、机架设计和资源编排; - 强化供应链韧性和质量管理,确保关键存储器件在大规模部署中的一致性与可靠性。 业界普遍认为,随着模型规模持续扩大,AI系统竞争将从“单芯片性能”转向“平台级效率”,带宽、容量、延迟与能耗将成为衡量基础设施能力的综合指标。HBM等高带宽显存、新型服务器内存模块以及高速数据中心存储,正在共同构建下一代AI服务器的技术底座。未来,如果这些产品能稳定供货并与主流平台深度适配,数据中心有望以更低能耗实现更高训练效率和更短推理延迟。同时,机架级系统的集成化趋势将更加明显,生态适配与全链路优化将成为厂商竞争的重点。

算力竞争的本质正从“比拼峰值计算”转向“比拼数据通路与系统效率”。随着内存、存储与平台协同迭代,数据中心的性能提升将不再依赖单一部件的突破,而是取决于全链路的均衡设计与规模化交付能力。谁能更好地平衡带宽、容量与能效,谁就更有机会在下一轮产业周期中占据优势。