当今人工智能产业正面临前所未有的算力需求挑战。
随着大型语言模型规模不断扩大、智能体应用日趋复杂,现有计算架构在存储、连接和处理能力上的瓶颈日益凸显。
特别是在智能体推理和长期任务执行中,Key-Value缓存对内存系统造成的压力持续增加,制约了AI系统的整体性能释放。
为应对这一核心挑战,英伟达推出了以天文学家薇拉·鲁宾名字命名的Rubin新一代计算架构。
该架构采用了模块化设计理念,由六款协同工作的独立芯片组成,核心包括全新Rubin GPU和专为智能体推理设计的Vera CPU。
同时,英伟达在Bluefield网络处理器和NVLink系统互连技术上进行了针对性升级,着力突破存储和连接的技术瓶颈。
在架构创新方面,Rubin引入了全新的外部连接存储层设计,通过更高效的存储池扩展机制,有效缓解了现代AI系统对内存的巨大压力,优化了复杂工作流的执行效率。
这一创新设计充分体现了英伟达对当前AI产业痛点的深刻理解。
性能指标的提升幅度令人瞩目。
根据英伟达官方测试数据,Rubin架构在AI模型训练任务上的速度相比前代Blackwell架构提升3.5倍;在推理任务中速度提升更是达到5倍,峰值运算能力高达50Petaflops。
尤其值得关注的是,新平台的能效表现同样优异,每瓦推理算力提升了8倍,这意味着在保证性能的同时,显著降低了运营成本和能源消耗。
这一性能飞跃为日益复杂的AI模型和应用提供了强有力的算力支撑。
从产业布局看,Rubin芯片已获得业界广泛认可。
英伟达宣布,该产品将被几乎所有主流云服务提供商采用,包括与其保持深度合作的OpenAI、Anthropic以及亚马逊云科技。
在超级计算机领域,惠普企业的Blue Lion超级计算机以及劳伦斯伯克利国家实验室即将推出的Doudna超级计算机也将部署Rubin系统。
这表明新架构已成为业界共识,将成为未来AI基础设施建设的重要基石。
黄仁勋在财报电话会议上曾预测,未来五年内全球在AI基础设施领域的投入将达到3万亿至4万亿美元。
Rubin架构的推出和量产,恰好呼应了这一巨大市场需求,预示着AI硬件产业即将进入新的发展阶段。
随着该架构在云平台和超级计算机中的大规模部署,将进一步加速全球AI产业的创新迭代和应用落地。
算力平台的迭代从来不是单一指标的竞赛,而是对计算、存储、网络与能耗等综合能力的系统性重塑。
Rubin架构量产并走向云端与超算,折射出产业对“更强推理、更高效率、更稳交付”的共同诉求。
面向未来,谁能把硬件性能转化为可持续的工程能力和可复制的产业价值,谁就更有可能在新一轮技术周期中赢得主动。