干崩存储股的谷歌爆红论文塌房,被曝抄袭、贬低华人学者成果,谷歌回应:晚点改

一篇即将在顶级AI会议ICLR 2026上发表的谷歌论文,因其宣称能将AI大模型的键值缓存压缩至原有的六分之一以下,被业界誉为“谷歌的DeepSeek时刻”,并直接导致美光、西部数据等存储巨头股价集体重挫。然而,近日这篇名为TurboQuant的论文被曝出严重抄袭争议,引发了学术界和产业界的巨大震动。

论文引爆市场,华人学者指证抄袭

引发争议的论文是谷歌研究团队发布的TurboQuant,该研究声称在向量量化技术上取得重大突破,能极大降低AI模型的内存需求。这一消息被市场解读为对传统存储技术的颠覆,导致相关概念股股价应声下跌。

干崩存储股的谷歌爆红论文塌房,被曝抄袭、贬低华人学者成果,谷歌回应:晚点改

然而,苏黎世联邦理工学院的中国博士后学者高健扬在社交平台公开指出,TurboQuant的核心方法与他早在2024年就已发表并完全开源的RaBitQ方案高度相似。高健扬表示,他自2021年起便开始相关研究,已在顶级学术会议上发表两篇论文,代码也已全部开源。他指出,TurboQuant在核心的随机旋转变换步骤上,与RaBitQ几乎别无二致,但谷歌论文不仅未正面探讨这种关联,反而在明知其成果的前提下,恶意将RaBitQ的理论成果贬低为“次优”。

沟通无果与实验设计不公

更令人震惊的是,高健扬透露,早在论文投稿前,他已通过邮件向谷歌团队指出了这些问题,并附上了详细证据。谷歌方面承认了部分错误,并表示会在会议结束后进行修改,但实际上并未在终稿中做出实质性更正,甚至将对RaBitQ仅有的不完整描述从正文移至附录。

除了学术归属问题,论文中的实验对比也充满了争议。据透露,谷歌在进行性能对比时,对RaBitQ的测试采用的是效率较低的Python单核CPU环境,而自身方法则使用了英伟达的A100 GPU进行测试。这种设计上的“双重标准”得出了一个数量级的性能差异,被外界形容为“将对手鞋带绑起来再赛跑”。

学术霸凌与市场震动

此次事件被广泛批评为大科技公司对个人研究者的“学术霸凌”。如果无人纠正,一篇由谷歌发布、曝光量数千万的论文,很可能会将一位华人学者耗费两年心血的开创性成果定性为“过时且缓慢”的方法,而谷歌自己的“复制品”则将被视作全新的突破。

值得注意的是,谷歌在论文引用中提到了高健扬的论文,但仅是在参考文献列表中一笔带过,这种轻描淡写的处理方式与论文正文中的刻意贬低形成了鲜明对比。一名曾在NeurIPS发表相关论文的学者也站出来表示,其成果同样在被谷歌邀请做内部报告后,未在TurboQuant中被提及。这起事件不仅暴露了顶尖科技公司在学术伦理上的巨大争议,也对全球AI学术圈的公平与诚信提出了严峻拷问。