北大团队研发出模拟计算芯片,能效比突破了几个数量级

孙仲是北京大学人工智能学院的研究员,他的团队最近研发出一种模拟计算芯片,其能效比突破了几个数量级。随着人工智能应用日益普及,数据量也在飞速增长,处理海量数据的高能耗问题成了阻碍AI发展的关键。传统CPU和GPU处理大规模矩阵运算时,常常面临算力提升与能耗控制的难题。大家都在寻找新的计算方式来突破这个瓶颈,这次孙仲的团队就在这个方向上取得了重要进展。他们设计了一种专门用来做“非负矩阵分解”的芯片。“非负矩阵分解”是个厉害的数据降维技术,能从杂乱无章的数据里找出规律,比如用户日志、图像像素或者生物基因序列等。这个技术是做推荐系统、图像分析还有生物信息学的核心算法。不过,数据量变大后,基于传统数字硬件的系统在实时处理和效率上常常跟不上。 孙仲团队选择了模拟计算这条路。模拟计算不是像数字计算那样用0和1的二进制代码来运作,而是利用物理定律在连续域中进行并行运算。这种计算方式低延迟、低功耗,被认为是解决算力和能效问题的潜力股。他们这次的芯片是基于阻变存储器阵列的,这种器件电阻可以连续调节,非常适合做存算一体的架构。研究团队设计了一种“可重构紧凑型广义逆电路”,通过电导补偿原理用最少的单元实现矩阵求逆运算。这个设计让关键步骤一步到位,优化了芯片面积和功耗。 为了测试芯片性能,他们搭了测试平台在多个场景下做了验证。结果显示,处理图像压缩时效果和全精度数字计算差不多,但存储空间省了50%。在推荐系统任务中表现也很好。用MovieLens 100k数据集训练模型时,比主流可编程硬件快212倍,能效提升了4.6万倍。在网飞那种大型数据集任务里也能快12倍,能效提升超过228倍。这些数据证明了模拟计算在特定AI任务上的巨大优势。 这个成果说明算法和硬件协同设计能释放计算潜力。北大团队的突破是科研人员自主创新的体现。这次研究不仅为解决AI算力瓶颈提供新思路,也为发展自主技术积累经验。未来这种芯片有望在数据中心、边缘计算和智能终端发挥作用。 科技自立自强是国家发展的支撑,这次突破是战略在微观层面的一步。