人工智能高耗水问题凸显 业界探索绿色冷却方案平衡发展

近年来,生成式应用、智能驾驶研发、工业仿真等场景快速扩张,算力需求呈加速上行态势。

与之相伴的,是数据中心冷却用水问题进入公众视野:表面上“看不见的算法”,背后却有一套真实存在的能源与水资源消耗链条。

业内人士指出,衡量算力的,不仅是芯片性能,更是支撑其稳定运行的供电、散热与基础设施能力。

问题:冷却用水成为数据中心运行成本与环境议题的交汇点。

研究者和企业披露的测算口径虽不尽相同,但共同指向一个事实——单次调用带来的用水量可能只相当于几滴水,然而当交互次数以亿计、数据中心规模持续扩张时,总量将迅速放大。

尤其在部分干旱频发、供水设施老化、公共用水压力较大的地区,数据中心对水的需求更易引发关注与讨论。

原因:数据中心并非“直接用水计算”,耗水主要发生在散热环节。

服务器由CPU、GPU等高密度算力部件构成,长时间高负载运转会产生大量热量。

若热量不能及时带走,设备将降频甚至停机,影响服务稳定性与安全性。

因此,散热成为数据中心设计的核心工程之一。

传统风冷依赖空气对流,适用于部分场景,但在高功率密度机柜条件下往往难以满足需求;冷板等间接液冷通过导热介质把热量从核心部件带走,再由循环系统与外部换热;更高效的方案是浸没式液冷,即让设备直接浸入绝缘液体中换热,理论上散热效率更高、PUE也更接近理想水平,但对材料兼容、运维体系与安全规范提出更高要求。

影响:其一,区域性水压力可能被进一步放大。

水资源具有可循环属性,但取水、净化、循环与排放受地理条件和基础设施约束明显。

在缺水地区,新增工业用水往往会与农业灌溉、居民生活用水形成竞争,带来治理难度。

其二,企业“水资源中和”等承诺若缺乏与数据中心所在地相匹配的补水与节水项目,容易出现“总量抵消、地点错位”的现实问题。

其三,水问题与能耗问题相互交织。

冷却系统既消耗水,也消耗电;在能效管理要求趋严背景下,如何在节电、节水之间形成系统最优,成为新的运维与监管课题。

其四,公众对数字经济的环境外部性更加敏感,企业透明披露与第三方核算的重要性上升。

对策:多方正在从技术、管理与治理层面协同推进。

技术上,提升能效仍是源头路径之一,通过更高效芯片、优化模型推理与调度、提高服务器利用率等方式,减少同等服务所需的总算力与散热负荷;在冷却侧,推动闭式循环、提高水的重复利用率、引入更节水的换热工艺,并结合气候条件采用“自然冷源”等方式降低对补水的依赖。

对于浸没式液冷等方案,业内普遍认为其规模化推广仍需在介质选择、成本控制、安全规范、供应链与回收处理等方面实现突破:油类介质成本相对可控但存在易燃、老化及维护频次等问题;部分高性能介质虽具优势,但若涉及环境与健康风险物质,其合规与全生命周期管理更需谨慎。

管理上,建立以PUE等指标为核心的能效约束之外,还可探索更可量化的“水效”指标体系,推动用水计量、分项核算与信息披露常态化。

治理上,因地制宜推进选址评估,把水资源承载力纳入数据中心规划审批与扩容评估,鼓励企业与地方共同建设回用水工程、再生水利用与应急保障体系,减少对优质淡水的占用。

前景:随着算力基础设施从“规模扩张”转向“质量提升”,节能节水将成为行业竞争力的重要组成部分。

未来一段时期,数据中心冷却路径可能呈现多技术并行:在气候条件适宜地区强化风冷与自然冷源应用,在高功率密度场景推进液冷渗透,同时加快关键材料、介质回收与标准体系建设。

业内人士预计,围绕水、能耗与碳排的综合约束将更趋严格,透明披露与第三方评估将成为行业“必答题”。

从更宏观的视角看,算力时代的可持续发展不应只追求“算得更快”,还要实现“算得更节约、布局更合理、治理更精细”。

当数字文明与生态文明在冷却塔前相遇,这场关于效率与可持续的博弈启示我们:技术进步的终极意义不在于征服自然,而在于与之和谐共处。

在算力成为新基建核心的今天,如何平衡数字红利与环境代价,不仅考验着产业智慧,更折射出文明演进的价值选择。