【问题】随着人工智能大模型训练需求呈指数级增长,传统高带宽内存(HBM)正面临明显压力。主流的硅通孔(TSV)连接方式热量堆积、机械应力各上存先天短板,使16-20层的堆叠上限逐渐成为算力继续提升的关键瓶颈。数据显示,单个HBM芯片内数万根垂直铜柱形成集中热源——基底温度每升高10℃——芯片可靠性将下降约30%。 【原因】行业分析认为,传统架构的物理限制主要来自三点:一是TSV垂直导通易形成“热烟囱效应”;二是制造工艺约束了I/O接口密度;三是功耗上升与散热能力之间的矛盾,压缩了性能提升空间。这些因素直接拖累数据中心在处理千亿参数级大模型时的数据传输效率,部分AI加速器的内存带宽利用率不足60%。 【对策】围绕上述痛点,业内正加速推进两条技术路线。三星电子推出的zHBM采用晶圆级3D集成方案,通过混合铜键合(HCB)实现12-16层堆叠;实测显示,其热阻降低约20%,基底温度下降12℃。同时,该方案将I/O接口扩展至数万个,使带宽达到HBM4的4倍,功耗则下降约75%。英特尔与SAIMEMORY联合研发的ZAM选择不同路径:通过斜向导通结构分散热量,减少约40%-50%的热负荷,并将单芯片容量提升至512GB,较现行方案提升近20倍。 【影响】TrendForce预测,新技术一旦实现规模化落地,可能带来三上连锁效应:第一,2027-2030年全球HBM市场规模有望突破300亿美元;第二,数据中心运营成本中冷却能耗占比或由当前约40%降至25%;第三,AI训练周期可能缩短30%-50%。目前,三星已启动48GB HBM4量产,为zHBM商用铺路;英特尔则计划2028年完成ZAM工程验证。 【前景】业内人士指出,这场技术竞赛折射出半导体产业的结构性调整。一上,3D堆叠推动“内存墙”向10TB/s量级突破;另一方面,斜向连接等非传统方案正在削弱TSV的路径依赖。不过专家也提醒,真正进入大规模量产仍需解决键合良率、热循环可靠性等工程难题。预计到2030年,定制化内存方案或将占AI加速器市场约70%的份额。
内存技术的每一次演进,都会重塑信息产业的节奏与边界。当前围绕高带宽内存展开的竞赛,本质上是在为人工智能时代的算力基础设施提前布局。无论是三维集成还是斜向互联,核心目标都是在接近物理极限的条件下继续释放带宽、容量与能效潜力。多路线并进将加快技术迭代,也可能改变全球半导体竞争格局。能否在性能提升与成本、可靠性之间取得平衡,将决定这些新方案是否真正具备行业级的改变能力。