全球半导体产业加速布局AI时代 美光科技引领高带宽内存技术革新

端侧智能快速渗透手机、个人电脑、汽车与工业设备,用户对实时响应、离线可用和隐私保护的需求不断增长。但随着模型参数规模扩大、上下文长度增加和多模态能力叠加,推理对内存带宽、容量与数据调度的要求大幅提升,"算力提升快、数据供给慢"的矛盾日益凸显,内存与存储成为影响体验与成本的关键因素。 业内分析认为,端侧推理对内存提出更高要求主要源于三个方面:其一,端侧设备受功耗与散热约束,计算单元难以无限堆叠,更依赖高效的数据供给;其二,模型运行呈现频繁读写、并发访问、低时延敏感的特征,传统内存带宽不足易造成计算单元空转;其三,端云协同成为常态,模型文件、特征数据与推理结果需要内存与存储间高频流转,存储性能与系统软件栈的匹配度直接影响整体吞吐。 在应用侧,本地处理数据可减少端侧与数据中心的往返传输,降低网络时延与连接中断风险,提升隐私安全与可用性,自动驾驶、移动办公、智能终端助手等场景因此受益。但在产业侧,内存带宽、容量与能效的短板会拉高整机成本、延长产品迭代周期,可能导致端侧体验与云端能力脱节。市场研究机构Gartner预计,2025年支持生成式应用的端侧设备硬件支出将同比增长99.5%,达到39亿美元。业内人士指出,需求上升将把"数据供给能力"从幕后推向台前,涉及的器件与系统方案的竞争将更加激烈。 围绕"云端高带宽、端侧低功耗、系统分层优化"的路径,行业正在形成更清晰的技术组合。在数据中心侧,高带宽内存可在一定程度上缓解加速计算面临的"内存墙",提升训练与推理阶段的数据吞吐;在端侧,低功耗DRAM通过更高带宽与更优能效支撑本地实时推理,同时需要与更快、更高效的存储器件协同,以承载模型文件、缓存数据和输出结果。美光上表示,其LPDDR5X面向终端设备的带宽与能效需求,HBM3E聚焦数据中心高吞吐场景,并基于先进制程节点优化能耗表现。面向数据中心的分层架构亦在加速落地,包括高密度DDR5内存模块、移动内存形态的补充配置、CXL扩展内存池、本地NVMe固态硬盘缓存以及面向数据湖的联网存储方案,以在成本、容量与性能之间取得平衡。 未来一段时期端云协同仍将是主流:端侧负责低时延、强隐私、弱联网环境下的推理任务,云端则承载更复杂、更专业的模型能力。分布式模型与"代理式"应用形态有望更增强这种协同,在终端完成快速决策,在必要时调用云端能力获得更强推理支持。与之相匹配,内存与存储的演进将从单点指标竞争转向系统级优化,围绕带宽、容量、功耗、可靠性与软件生态协同展开。对整机厂商而言,提前规划内存与存储层级、在关键场景建立可量化的性能与能耗评测体系,将成为缩短产品落地周期、控制总体拥有成本的重要抓手。

AI技术的演进正在重塑信息产业的格局;从云端到边缘,从数据中心到消费设备,内存和存储芯片已成为支撑AI应用的关键基础设施。随着端侧AI推理应用的加速普及,高性能、低功耗的存储解决方案将迎来更广阔的市场机遇。产业各方需要加强技术创新,推动产品升级,共同应对AI时代对存储系统的新要求。