AI算力与绿色发展不再对立 专家提出三层递进降耗方案

问题—— 近年,人工智能应用加速落地,大模型训练、线推理、内容生成与行业智能化改造等需求集中释放,带动数据中心算力密度与运行时长明显提高。用电量上升、热管理难度加大、电力接入排队等现象在多地出现,数据中心正成为电力需求增长的重要变量。社会担忧主要集中在两点:一是算力越强、耗电越多;二是高密度服务器带来的散热需求可能深入抬升能耗。 原因—— 业内人士指出,能耗攀升并非单一因素所致,而是“算得多、算得慢、算得不巧、散得不快”叠加的结果:一上,模型规模扩张带来计算量激增;另一方面,资源调度与软件效率不足会造成空转与重复计算;同时,在电力供给与变压器容量成为约束的情况下,硬件长期“满功率”运行会加剧峰值负荷;此外,传统风冷在高密度机架面前效率下降,冷却系统能耗占比随之上升。 影响—— 从企业侧看,电力成本与供电不确定性抬升,可能影响项目交付周期与算力服务稳定性;从电网侧看,负荷峰谷差扩大、局部配电压力增加,需要更精细的需求侧管理与更清洁电力供给;从绿色转型角度看,若缺乏系统治理,算力扩张可能对碳排放管理形成新挑战。不容忽视的是,约束正在从“买不买得到服务器”转向“能不能拿到足够电力”,电力与能效成为数据中心竞争力的重要组成部分。 对策—— 多位从业者提出,可用分层治理思路降低能耗,并把节能收益在海量训练与推理任务中放大。 第一层是用更少的计算周期完成同等任务,提升软件与工作负载效率。核心在于把“最清洁的一度电是未被消耗的一度电”落到工程实践:通过优化模型与算法、减少冗余计算、提升并行效率,以及改进任务编排与资源利用率,减少机器空转。另外,“碳感知与资源感知调度”正从研究走向应用:对可弹性处理的任务,优先在电力更清洁、系统负载更合适的时段与区域运行,兼顾减排与稳定性。大型云服务企业也在将算力作为稀缺资源进行统筹,依据能耗上限、供电约束与业务时效综合决策运行地点与时间,从源头抑制无效消耗。 第二层是提升每瓦特产出,推进芯片与加速器能效跃升。业内普遍认为,能效比提升是控制总能耗的关键变量:同样的电力若能产生更多有效计算结果,就能在应用扩张的同时降低边际能耗。当前,新一代加速器在推理等关键场景的能效改善明显,配合功耗上限设置、频率电压调优等措施,可在性能影响较小的前提下降低峰值功耗,改变“长期满负荷运行”的粗放模式。在电力成为瓶颈的背景下,功耗可控、效率更高的硬件与系统设计将更受青睐。 第三层是以更智能的冷却替代更耗能的冷却,加快从风冷向液冷演进。冷却系统在数据中心能耗结构中占据重要比例,高功率密度机架使传统风冷逐渐接近能力边界。直接到芯片液冷、浸没式液冷等方案依托液体更高的导热效率,可用更低的冷却能耗支撑更高的部署密度与更稳定的温控。高校科研机构、超大规模云服务商及托管服务提供商正将液冷从试点走向规模化应用,并带动机房结构、运维体系与供应链配套的升级。 前景—— 受访人士认为,数据中心能耗治理的方向将从“单点节能”走向“系统最优”:通过软件调度、硬件能效与制冷架构协同,实现单位算力能耗持续下降;通过与电网互动、与可再生能源更好匹配,实现更平滑的负荷曲线与更低的碳足迹。未来行业竞争将更多体现在综合能力上,包括能效指标、供电保障、碳管理水平以及全生命周期运维能力。随着对应的标准完善与技术成熟,节能降碳有望从成本项转变为新型基础设施的核心竞争力。

在数字经济发展与绿色转型的双重要求下,数据中心能耗问题反映了技术进步与生态责任的平衡;如同工业革命推动能效标准建立,数字时代也将重塑能源使用理念。这场能源效率革命不仅关系企业效益,更是检验数字文明可持续发展能力的重要指标。