人工智能这行虽然在风口上,背后其实藏着个大问题,就是数据中心费水太厉害。全球都在抢着搞算力,基础设施长得跟坐火箭一样快,结果把一个以前藏在身后的麻烦给拱出来了——资源吃紧,尤其是水。大家仔细算算就会发现,养着那些大模型的数据中心,喝的水主要都用在了给服务器散热上。CPU、GPU这些芯片在拼命运算的时候会烧出一大锅热气,不赶紧给它降降温机器就歇菜。现在主流的散热方式有风冷风冷,还有液冷。那种用水直接冲或者让水流动带走热量的办法,在大家伙儿手里用得最广。 业内的专家估摸着,光做一次用户查询,它背后的冷却系统得偷偷消耗几十甚至上百毫升的水。虽说单看一眼感觉没多少,但全球每天几亿次的聊天互动叠加起来,这水账可就厚得吓人了。有新闻就举过例子,某些大语言模型回答一次问题,这背后的水冷系统可能就要烧干好几瓶矿泉水的量。具体得看是干活干到多猛、天气热不热、用的是什么降温技术,还有电用得漂不划算——这个值叫PUE,也就是电能利用效率。 现在散热这块的活儿越来越重,大家都觉得要搞那种把服务器泡在油里的“浸没式液冷”。这种法子直接把芯片丢进液体里泡澡,散热效果确实好,还能省电。但这玩意儿真要铺开也挺费劲。现在用的液体主要有两种,一种是油基的,便宜是便宜了,可容易起火还会腐蚀零件;另一种是氟化液,散热猛是猛了点,里面却藏着PFAS这种难降解的玩意儿。这东西被环保部门盯着看呢。 再说咱们国家也对数据中心的能耗卡得越来越死。像新建的那种超大型机房,PUE值不能超过1.25,越接近1说明空调风扇这些乱七八糟的辅助耗电越少。这就逼着大家得去琢磨更高效的新技术。咱们从大处看,AI产业费水这事儿挺复杂也挺有地方特色。虽说水是可再生的宝贝,可建机房的地方往往挑那些电费便宜、地皮大的地儿,结果正好就是缺水又缺资源的地方。 科技公司现在也开始琢磨怎么“中和”用水了,就是掏钱去别的地方搞补水项目来抵消自己的消耗。不过这事儿到底行不行、能不能把当地老百姓用水的事儿搞定、到底能不能真的缓解当地的干旱压力,还得再观察观察。像《自然》这种大刊物也发过文章说过这事:全世界很多地方本来就缺水闹旱灾、水管也老化严重,AI这种前沿技术还在拼命喝水,这真得好好算算账。这不是不让搞创新了,而是说在一开始规划的时候就得把省电和环保放在心上。 毕竟人工智能是要带领新一轮变革的玩意儿潜力巨大。不过要想走得稳当还得靠算力这根基打得牢不牢。怎么把水和电这两摊子事弄顺溜了?不光是为了省钱更是为了良心和责任。以后还得靠不停创新去攻破散热这个关口、把机房布局得更合理一点、把绿色管理做得更细一点。这样才能既给各行各业赋能又守住咱们的水底线,给全世界的AI产业加把劲。