厉害了word哥!中科曙光这套组合拳,国产算力不光能撑起国家级的大科学工程,更是把全球科学

咱把时间拨回3月19日,中科曙光在自家官微上秀出了成绩单。说是他们最近联合龙讯旷腾搞出来的那款MatPL软件,真给国产软硬件协同争了口气,又把世界记录刷新了。这次模拟的对象可是规模大得吓人的414.7亿个液态水分子,而且所有原子间的相互作用都达到了第一性原理级的精度。这可是继之前那个290亿原子纪录之后的又一大突破。 中科曙光在解释这事儿的时候说了,这意味着科学家们第一次能用量子力学那么高的精度,在跟真实尺度差不多的环境里去研究电池界面、生物大分子这些前沿问题。这就好比给“AI for Science”这个新方向打下了地基。 要知道在过去,精度和规模这俩就像鱼和熊掌一样不可兼得。以前做分子动力学模拟,通常得给原子之间的力设置一堆经验参数,虽然能算出几百万个原子的大体系,但这就像玩了个简化版的游戏,把微观世界里关键的量子效应都给弄丢了。而第一性原理计算虽然不用设参数、直接算受力情况、精度很高,可这玩意儿算起来太费劲了,导致能算的原子数量受限制。 怎么解决这个问题?MatPL软件走的是机器学习力场这条路子。简单说就是先拿点高精度的第一性原理数据喂给模型训练一下,以后就算是几百亿原子这么大的体系,模型也能推算出每个原子受啥力。而中科曙光的scaleX万卡超集群就把这个算力底座给搭好了。 虽然现在能算这么大的规模了,但其实要把这个能力落到实处还挺不容易的。记得吧,就在2025年12月,scaleX万卡超集群是头一回拿真机子给大家伙儿看。到了2026年2月的时候,这3套系统就在国家超算互联网的郑州核心节点同时上线试跑了。这可是全国头一个能把3万张卡凑在一起用的最大的国产AI算力池。 接着到了2026年3月,一套全自研的400G无损高速网络也在郑州正式发布了。这网快得很,正好给那些强大的算力系统提供了跑得快的道路。测试数据显示,这玩意在各种典型的场景下能给用户带来至少3到6个数量级的加速效果。 现在你看看那全国超算互联网的核心节点上跑的任务已经超过300项了,覆盖了人工智能、新材料、生物医药这些重点领域。 这样一看咱们就明白了:有了MatPL和scaleX万卡超集群这套组合拳,国产算力不光能撑起国家级的大科学工程,更是把全球科学计算的风向给带偏了。