TurboQuant团队学术不端?谷歌回应了,但争议更大了

背景:TurboQuant引发的AI压缩技术热潮

  • 谷歌研究院于近期发布了一篇关于大模型内存压缩技术的论文,提出名为TurboQuant的新算法,声称可以将KV缓存的内存占用压缩至原来的1/6。
  • 这一成果迅速引发业界关注,被认为是缓解当前“AI存储荒”的潜在突破,导致美股多支存储类股票市值蒸发超过900亿美元。
  • TurboQuant论文发布后,在3月25日被“Google Research”官方账号转发,关注度持续攀升。

指控内容:三大主要问题引发学术争议

  • 系统性回避与RaBitQ的相似性:苏黎世联邦理工学院博士后高健扬指出,TurboQuant在方法设计上与RaBitQ高度相似,但论文中未充分提及RaBitQ的贡献。
  • 错误描述RaBitQ的理论结果:论文中将RaBitQ的理论误差界错误地定性为“次优”、“较粗糙的分析”,而实际上RaBitQ已达到理论计算机科学顶级会议FOCS 2017提出的渐近最优误差界。
  • 不公的实验环境:TurboQuant团队在测试RaBitQ时使用单核CPU并关闭多线程并行,而TurboQuant自身则使用英伟达A100 GPU进行测试,明显存在不公平比较的嫌疑。

谷歌的回应:澄清与回避并存

  • 在沉默近一周后,TurboQuant团队于4月1日首次公开回应相关指控。
  • 回应中承诺修正部分对RaBitQ理论结果的错误描述,并调整实验设置,但拒绝在论文中讨论TurboQuant与RaBitQ在核心技术上的相似性
  • 论文第一作者Amir Zandieh仅给出笼统答复,RaBitQ团队未获得更具体的解释或修正承诺。
  • 高健扬认为,谷歌团队的回应是“转移矛盾”,并未正视核心问题,尤其是对RaBitQ作为先行工作的尊重与引用。

技术层面的争议焦点

  • RaBitQ与TurboQuant在方法设计上具有显著的结构相似性:
    • 两者均在量化前使用随机旋转(Johnson-Lindenstrauss变换)来简化数据结构。
    • 这是论文中最核心、最具创新性的步骤,而TurboQuant团队未予充分说明与RaBitQ的关系。
  • TurboQuant声称其使用QJL算法(基于Johnson-Lindenstrauss变换)仅需1比特即可消除量化误差,但RaBitQ团队指出其理论基础与RaBitQ高度相关。
  • 社交平台上,有网友质疑TurboQuant的创新性,认为其更像是“将RaBitQ换了一种表达方式,在GPU上实现”,缺乏实质性突破。

时间线与沟通失败

  • 2024年5月:RaBitQ论文首次发布,随后更新扩展版并开源代码,发表于顶级会议SIGMOD。
  • 2025年1月:TurboQuant团队第二作者Majid Daliri请求RaBitQ团队协助调试Python实现。
  • 2025年3月:TurboQuant论文发布,RaBitQ团队指出其中的错误描述与实验设置问题。
  • 2025年4月1日:TurboQuant团队回应,承诺部分修改但拒绝讨论方法相似性。
  • 2025年11月:TurboQuant论文提交至ICLR 2026,相关错误未被修正,ICLR方面也未回应RaBitQ团队的反馈。

社会与行业反应加剧

  • 知乎上有网友指出,早在阅读TurboQuant论文时就已察觉其与RaBitQ的相似之处,认为其创新性不足。
  • X平台用户批评TurboQuant团队在提交论文前已收到相关反馈却选择忽略,这反映出团队在学术伦理上的严重疏忽
  • 虽然论文被ICLR接收常被视为质量保障,但此次事件暴露出同行评审流程中可能存在盲点或疏漏,并不能完全确保技术论断的严谨性。

事件影响与未来走向

  • 学术界信任危机:此次事件加剧了对大型科技公司主导AI研究的担忧,尤其是其对小型研究团队成果的引用与尊重问题。
  • 行业震动持续:虽然TurboQuant论文的压缩效果引发市场震动,但其学术争议可能影响该技术的实际应用与推广。
  • 谷歌AI声誉受损:此次事件可能削弱外界对谷歌AI研究透明度和原创性的信任,尤其是在其拒绝修改关键问题之后。
  • RaBitQ团队表示将继续推动学术公正,并考虑通过学术期刊正式发表声明以澄清事实。

结语

谷歌TurboQuant论文的争议仍在持续,不仅关乎技术的原创性判断,也牵涉到AI研究生态中的公平性与学术伦理。在AI研究日益集中于少数科技巨头的背景下,如何确保学术成果的公开、公正与透明,成为整个社区亟需面对的问题。