这事闹大了!谷歌发布了一篇AI论文,说能把AI大模型运行时的键值缓存压缩到原来的1/6以下,结果把全球存储巨头的股价给打了个措手不及。网友都调侃这是谷歌的DeepSeek时刻。但没想到,这篇爆款论文很快被人指出有问题。3月27日,苏黎世联邦理工学院的中国博士后高健扬在社交平台上发帖,说TurboQuant的核心方法跟他2024年发表的RaBitQ太像了。高健扬2021年本科毕业于北京师范大学数学系,2025年在新加坡南洋理工大学拿到了博士学位,现在就在苏黎世联邦理工学院做博士后研究,他的研究方向正好是当前AI的热门话题。他已经研究RaBitQ两年了,还发了两篇顶会论文,代码也全开源了。高健扬指出,谷歌在论文里没提RaBitQ,还故意贬低它的理论结果。更气人的是,他之前就给谷歌发过邮件说了这事,谷歌也承认有错,但只说会议结束后再小修一下。 高健扬指出TurboQuant和RaBitQ核心都是用随机旋转变换做向量量化,结构几乎一模一样。谷歌不仅回避技术关联,还无端说RaBitQ次优。因为这个论文影响力太大了,高健扬担心错误的东西会变成共识,所以他决定把证据和时间线都公开出来。他在帖子里说发帖的目的就是想让大家看看真相。“一篇论文被谷歌推到几千万人面前,就算不主动传也会变成共识。”这个消息是扬子晚报的宋世锋记者报道的。