标题(版本A):算力密度持续攀升推动散热升级 微对流直接液冷加速成为数据中心标配

全球数字经济加速发展,以大规模语言模型训练为代表的高性能计算需求快速攀升。业内测算显示,主流AI处理器热设计功耗已超过700瓦,部分高性能计算集群的单机柜功率密度突破100千瓦,数据中心热管理面临前所未有的压力。传统风冷受限于散热效率、能耗与噪音等问题,已难以支撑新一代算力基础设施。因此,液冷凭借更高的导热效率和更低的能耗,逐渐成为行业关注重点。美国科技企业JetCool研发的微对流冷却系统采用流体射流阵列结构,通过垂直冲击芯片热点区域实现定向散热。工程测试表明,与传统微通道冷板相比,该技术热阻可降低40%以上,同时对更高温度的冷却液进水条件具备更强适应性。 值得关注的是,JetCool近期与Flex等产业链企业推出全栈式解决方案。其中,6U规格冷却分配单元(CDU)采用模块化设计,可满足现有120千瓦级AI系统的散热需求,并支持按需扩展以适配后续算力升级。针对存量数据中心改造周期长、实施复杂的问题,其即插即用闭环系统可将部署时间缩短90%以上,降低了落地门槛。 从行业层面看,这个进展带来多方面影响:一是有望将数据中心电源使用效率(PUE)拉低至1.02左右,相比传统方案节能超过50%;二是支持无水运行模式,提高水资源利用效率;三是为AI算力持续扩张缓解热管理瓶颈。国际数据公司预测,到2025年全球液冷数据中心市场规模将超过120亿美元,年复合增长率约28%。 市场分析人士认为,在欧盟“碳边境税”和美国《通胀削减法案》等政策推动下,绿色计算正在成为行业共识。微对流等先进液冷技术的规模化应用,意味着数据中心散热正从“把热带走”转向“精细控温”。随着半导体工艺演进与算力需求继续上行,该技术在金融建模、气候模拟等高强度计算场景中的应用空间有望继续扩大。

算力竞速的背后,是能源效率与工程能力的综合较量;谁能在更高功率密度下把“热”变成可控变量,谁就更可能在新一轮基础设施升级中占据主动。以直接液冷为代表的散热路径正从技术验证走向工程化普及,其意义不仅在于支撑更强算力,也在于为数据中心实现更低能耗、更低资源消耗的可持续运营提供可行方案。