黄仁勋回应“SRAM替代HBM”争议:速度非唯一尺度,AI芯片瓶颈仍在容量与通用性

近年来,随着人工智能技术的快速发展,AI模型对硬件性能的需求呈现爆炸式增长。

在这一背景下,内存技术成为制约算力提升的关键因素之一。

静态随机存取存储器(SRAM)和高速带宽内存(HBM)作为两种主流技术方案,引发了业界的广泛讨论。

SRAM以其极高的访问速度和低延迟著称,而HBM则凭借大容量和低功耗优势,成为AI芯片的主流配置。

然而,部分行业人士提出,SRAM可能成为HBM的替代方案,以降低AI硬件的成本。

对此,英伟达CEO黄仁勋在CES 2026展会上明确表示,尽管SRAM在某些特定任务中表现优异,但其容量限制使其难以满足现代AI模型的需求。

他指出,SRAM的容量仅能承载当前AI模型需求的1%,而HBM则可适应90%以上的通用任务。

一旦模型规模超出SRAM的承载能力,系统将被迫调用外部内存,导致性能优势荡然无存。

黄仁勋进一步分析称,AI工作负载具有高度不可预测性。

现代AI模型形态多样,包括混合专家模型、多模态任务等,对硬件的需求各不相同。

如果硬件过度优化某一特定模式(如依赖SRAM),在面对多样化任务时可能造成资源浪费。

相比之下,HBM的灵活架构能够适应不断变化的算法需求,确保硬件在长期运营中保持高利用率。

针对开放模型可能削弱英伟达技术壁垒的担忧,黄仁勋回应称,开放模型并不意味着降低硬件要求。

随着模型复杂度的提升,内存占用将进一步增加,HBM的高成本投入仍是确保性能的必要选择。

英伟达通过坚持HBM技术路线,既为客户提供了更广泛的应用场景,也为自身应对技术迭代预留了空间。

黄仁勋的表态不仅澄清了当前存储技术选择的技术逻辑,更揭示了AI硬件发展的深层规律。

在技术快速迭代的时代,保持架构灵活性比追求单一性能指标更为重要。

这一观点对整个AI产业的技术路线选择具有重要指导意义,也为理解未来AI硬件发展趋势提供了新的思考维度。