问题:随着大模型训练与推理需求持续增长,算力基础设施面临“能耗高、散热难、扩容慢”的多重约束。
地面数据中心在保障稳定运行的同时,需要投入大量电力用于制冷与热管理。
业内测算显示,部分高密度算力场景下制冷相关能耗占比显著,能源使用效率指标长期徘徊在行业瓶颈区间。
算力越集中、密度越高,“散热墙”越突出,成为规模化扩张绕不开的现实难题。
原因:一方面,芯片功耗与机柜功率密度提升,使热量在有限空间内快速累积,传统风冷难以满足高热流密度需求,液冷等方案虽能提升散热能力,但带来系统复杂度、建设成本与运维门槛的上升。
另一方面,地面数据中心的能耗结构决定了“计算用电”之外还需承担“保障用电”,包括制冷、供配电损耗等,综合作用导致整体效率提升空间受限。
与此同时,部分区域还面临土地指标、用能指标、峰谷电价与电网接入等约束,使得新建与扩容需要更长周期与更高综合成本。
影响:散热与能耗问题不仅是单个项目的运营成本问题,更直接影响算力供给能力与产业竞争力。
在大模型迭代加速、应用场景扩展的背景下,算力供给的可靠性、可持续性与单位算力成本成为关键变量。
若难以突破能耗与散热瓶颈,算力基础设施可能出现“建得起、用不起”“能扩容、难落地”的矛盾,进而影响科研创新、产业数字化转型和战略性新兴产业布局。
对城市而言,数据中心的热岛效应、能源结构与碳排放压力也需要统筹考虑。
对策:在此背景下,轨道数据中心作为一种跨域创新路径进入工程化探索视野。
相关研究认为,在700至800公里轨道等空间环境中,深空背景温度与辐射散热条件为热管理提供了新的物理边界;若能通过导热与辐射结构完成热量外排,可望减少甚至避免地面数据中心对大型制冷系统的依赖,从而推动能源使用效率进一步改善。
有观点指出,在理想条件下该模式可使数据中心综合能效接近“只为计算供电”的状态,进而释放可观的运营成本优化空间。
与此同时,轨道平台可通过光伏获取电能,形成“发电—计算—散热”的闭环设想,减少地面长距离供能与配套基础设施压力,也为高能耗算力的选址提供更多可能。
北京正在推动相关方案由概念论证走向验证应用。
据相关机构披露的路线安排,计划在近期阶段聚焦太空数据中心的能源供给、热管理、可靠运行与在轨维护等关键技术攻关,先期建设总功率约200千瓦、算力规模约1000POPS的试验星座,在真实轨道环境下验证热控、供电、载荷运行与数据传输等系统能力,并通过工程数据反向优化结构设计与运行策略。
业内认为,轨道数据中心要实现规模化应用,必须系统解决在轨部署与组网、辐射与极端温差环境适应、故障冗余与安全防护、通信链路带宽与时延、在轨升级维护以及与地面网络协同等关键问题,任何单点突破都不足以支撑“从试验到商用”的跨越。
前景:从全球趋势看,围绕太空计算与轨道数据处理的探索正在加速,部分国际企业与科研机构已提出相关计划,显示出对“突破地面物理与资源边界”的共同判断。
轨道数据中心若能在成本、可靠性与规模化制造方面取得突破,有望成为面向未来的算力基础设施补充形态,在特定任务与场景中发挥优势,例如对能效要求极高、对地面资源依赖较强或需要在轨数据就地处理的应用。
但也需看到,轨道数据中心的商业可行性不仅取决于散热优势,还取决于全生命周期成本、发射与运维体系成熟度、标准体系与监管规则、以及与地面算力网络的协同效率。
业内预计,近期更现实的路径是以试验星座验证关键指标与系统可控性,在形成稳定工程范式后再逐步迈向更大规模。
轨道数据中心的推进建设代表了人类对计算极限的新探索。
在人工智能时代,算力已成为战略性资源,而突破其物理约束的能力将决定产业竞争格局。
北京的这一举措不仅体现了对技术前沿的把握,更反映了对绿色、可持续发展的追求。
当散热不再成为制约因素,人工智能的发展空间将被永久拓展,这场"散热革命"必将深刻改变全球算力产业的未来格局。