就在3月26日,咱们那个焦点放在华苑片区的企业篇,也就是中科曙光吧,他们在中关村论坛现场,给大伙秀出了世界上第一个不用接线缆的箱式超节点,叫scaleX40,而且还在现场开了全渠道的预售。 说起这玩意儿,李斌大佬是这么给大伙儿解释的:说白了,就是一堆跑得飞快的芯片紧挨着互相传数据的这种计算单元,叫超节点。他还说,scaleX40满足了现在搞模型推理的性能需求,他们希望这货能变成眼下支撑AI服务的最得力帮手。 通过把架构翻新来降低门槛,scaleX40是从结构入手的,在算力形态、咋送过去还有用起来快不快上都有了大突破。这给咱们提了个醒儿:AI算力别老想着怎么像搞工程那样盖楼子,得变成像卖产品那样能直接给出去。以前大家搞超节点都得扯好多线、还得专门定制,这就意味着要花大钱、费大功夫。 中科曙光把scaleX40做得真够大胆的,首先就在样子上动了大手术。不用那种乱糟糟的光纤或者铜缆了,直接让计算和交换模块怼在一起;还搞了个标准的19英寸箱子,让它像个独立的设备一样就能摆放在那儿。这一下,部署方式就从以前那种大拆大建的工程活变成了像搭积木一样的模块化组装。 数据上看着更吓人:一个节点能塞进40张GPU,总算是跑到了28PFLOPS(FP8精度),存东西的HBM显存超过5TB,读写速度也能飙到80TB/s。系统的靠谱程度更是上了一个台阶,能达到99.99%,在让它变得不那么麻烦的同时,既稳当又省电。李斌老大也说了,scaleX40不光是为了让算力堆得更密,主要是要让超节点变得更简单、更标准化地进入各行各业。 看看现在的市场行情就知道了,大家对算力的需求分层越来越明显。虽说全球投在AI基建上的钱还会蹭蹭往上涨,但新增的需求慢慢就不盯着那些大到不行的集群看了。企业现在更在乎的是在花得起的钱里拿到能稳当用、还能随时扩大的那种高端算力能力。发布会现场不少业内人士也都这么说:其实大家要的不是单纯的大堆机器。 中科曙光说scaleX40的配置正好卡在了性能和成本中间那条线上。它既有本事跑大模型的训练和推理,又不会把大家的口袋掏空。更绝的是这东西不挑食。往下看它能兼容32卡的那种小活儿;往上看它还能像积木一样搭出更大的集群。公司的负责人觉得这么干最贴近企业的实际节奏,能帮大家把那种一次性投进去的资金压力给平摊掉。 现在AI算是进入产业化阶段了,大家拼算力已经不光看谁的数跑得最快了,“好不好用、会不会用、能不能一直跑”才是硬茬子。高端算力现在从以前的奢侈配置变成了必须有的基本能力。scaleX40在设计上特别强调“有没有用”。 公司说它那标准化的身子骨能直接塞进现有的数据中心里头,不用再花大钱去改环境;模块化的结构让它能随叫随到。再加上跟存东西的体系和调度系统配合好,算力资源就能更直接地去服务模型训练、推理和智能体应用了。这种“拆箱就能用”的感觉让高端算力能更快地走进实际干活的流程里去。 从开始搭机器到最后上线的时间被压缩了好多,用起来的复杂劲儿也小了不少。高端算力开始有了那种“想用就拿”的味儿。负责这块的人觉得对于很多真有刚需的企业用户来说,这就意味着高端算力不再是那种只在少数地方才能碰的稀罕物件儿了。 行家里手也表示:一旦超节点能用更简单的办法被安起来和用起来了,高端算力才会真正从“能力选项”变成“系统里的标配”。