华为10 万亿级大模型训练,让运营商加速从移动互联网时代迈向智能体互联网时代

咱们先把时间线给捋清楚。3月2日这天,华为在MWC2026(也就是世界移动通信大会)上,头一回把那些以前只在国内露过面的超节点产品带出国门,想搞个开源开放的大动作。咱先说第一个重点:10万亿级别的大模型训练,现在已经是刚需了,这就得靠像Atlas 950 SuperPoD这样的家伙来撑场面。这家伙最大能塞进8192张NPU卡,效率直接甩开传统集群几条街,大模型训练和海量推理都能搞定。 华为张熙伟在现场特意强调:华为要把选择权交到客户手里。咱们不光有Atlas 950 SuperPoD这种智算超节点,还有Atlas 850E超节点服务器。这个东西适配现在那些传统风冷机房挺方便的,从8到1024卡都能随意扩展,特别适合那些先从小规模推理做起、再慢慢扩大规模的运营商。 说到通用计算这块儿,业界首款TaiShan 950 SuperPoD就很能打。它能搞定百纳秒级别的超低时延和TB级的大带宽,甚至能把内存池化了。通过内存语义通信,数据在节点间传输简直跟读写字一样顺滑。再配上TaiShan200和TaiShan500这两个系列,高中低档次的算力需求都能被满足。而且咱们和openEuler系统还有BoostKit套件深度合作,完美适配了不同业务的需求。 别看现在AI好像只是换换工具那么简单,但实际上它正从Generative AI时代往Agentic AI时代走。这时候的模型参数动辄万亿级别,训练的数据量也高达10万亿个,这就对算力提出了十倍甚至百倍的要求。而且模型支持的上下文序列长度从K级涨到了M级,对时延和规模的要求变得更苛刻了。 为了让行业能跟上这个节奏,华为这次不光是发硬件,更是想搭个平台。咱们不光给了硬件产品,还搞了“集群+超节点”的新架构。这种架构能让上千个计算节点像一台计算机一样配合工作,把算力底座打得结结实实。最重要的是咱们坚持全面开源开放,会把代码都给出来让开发者用。这样一来大家都能深度挖掘硬件的潜能,加速AI的创新。 特别是在MWC2026上发布的Atlas 950 SuperPoD和TaiShan 950 SuperPoD这两个超节点产品,简直就是这次发布会的重头戏。它们不仅能匹配运营商多样化的算力需求,还能给各行各业的智能化升级注入新动力。不管是搞大模型训练还是搞通用计算,这些产品都能提供最优的解决方案。 咱再来看看具体的技术细节。Atlas 950 SuperPoD这种智算超节点以单柜64卡为基本单元,最大支持8192张NPU卡高速互联。比起传统集群来说,大模型训练的效率、可靠性和推理性能都大幅提升了。Atlas 850E服务器则支持8到1024卡的灵活扩展和快速部署。这种分阶段的升级方式特别适合从小规模推理起步的运营商们。 再看通用计算领域的TaiShan 950 SuperPoD通算超节点。它支持百纳秒级超低时延、TB级超大带宽还有内存池化这些能力。通过内存语义通信实现跨节点数据读写式传输,这就从根本上解决了以前通用计算时延高、数据搬运开销大、协同效率低的难题。 最后要说的是生态建设这块儿。华为推出了TaiShan200和TaiShan500系列通算产品来覆盖高中低不同场景。咱们跟openEuler系统和BoostKit套件配合得也很默契,能够满足运营商各种不同的业务需求。 总结起来就是:在MWC2026这个时间点上(3月2日),华为通过发布Atlas 950 SuperPoD、TaiShan 950 SuperPoD等超节点产品和解决方案(这些产品支持10万亿级数据训练),把开源开放的算力底座给打出来了。通过“集群+超节点”架构创新(解决了高延时问题),咱们坚持全面开源开放(让开发者更容易上手),希望能把合作伙伴都给聚拢起来。 这套方案最大的好处就是能让运营商加速从移动互联网时代迈向智能体互联网时代(也就是Agentic AI时代),从而支撑起千行万业的AI智能化升级工作。