Google TurboQuant记忆体技术陷争议!RaBitQ作者揭露「三大」论文问题

Google(GOOGL-US) 发布新 AI 记忆体压缩技术TurboQuant,引发业界与股市关注。然而,苏黎世联邦理工学院博士后高健扬指出,TurboQuant 论文存在方法相似性回避、理论结果错误及不公平实验问题,而这些问题在投稿前已告知 Google 团队却未修正。

Google 声称TurboQuant能在不牺牲模型精準度的情况下,将生成式 AI 推理阶段最消耗资源的KV Cache空间需求缩减至原本的 1/6,并让计算速度提升 8 倍。


该技术一出,引发业界对记忆体需求可能断崖式下降的担忧,美光科技 (MU-US) 、SanDisk (SNDKV-US) 、威腾电子 (WDC-US) 等记忆体相关美股应声下跌。

然而,就在周五(27 日),苏黎世联邦理工学院博士后、RaBitQ 系列论文第一作者高健扬公开发布澄清信,指出 TurboQuant 论文存在三大严重问题,包括:系统性回避方法相似性、错误描述 RaBitQ 理论结果,及刻意创造不公平的对比实验环境。

高健扬表示,这些问题在论文投稿前已透过邮件告知 TurboQuant 团队,对方明知却未修正。

RaBitQ 是高健扬于 2024 年发表的高维向量量化方法,其核心创新之一是在量化前对输入向量施加随机旋转,并从理论上证明其达到顶级电脑科学会议提出的渐近最优误差界。

高健扬指出,Google 研究团队于 2026 年 1 月提交的论文《TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate》对已有的 RaBitQ 向量量化方法的描述、理论对比与实验对比都存在明显问题。

他强调,这些问题在投稿前,自己已透过邮件明确指出错误,TurboQuant 团队也知情,但选择未进行修正,而此次公开澄清,是因为错误的学术叙事一旦广泛流传,后续纠正将更加困难。

TurboQuant 论文问题一:系统性地迴避 TurboQuant 方法与已有 RaBitQ 方法的相似性

高健扬指出,RaBitQ 与 TurboQuant 在方法上有直接关联,皆在量化前使用随机旋转(Johnson-Lindenstrauss 变换),但 TurboQuant 论文中未正面承认这一关联。

事实上,2025 年 1 月,TurboQuant 的第二作者 Majid Daliri 曾联繫 RaBitQ 团队,请求协助调试 Python 版本的 RaBitQ 程式码,可见 TurboQuant 团队充分了解 RaBitQ 细节。

儘管 ICLR 审稿人指出两者使用随机投影技术相似,TurboQuant 最终仍未在正文中充分讨论 RaBitQ,而是将其不完整描述移至附录。

TurboQuant 论文问题二:错误描述 RaBitQ 的理论结果

TurboQuant 论文声称 RaBitQ 的理论保证次优,但未提供任何论据。

高健扬指出,他们在拓展版 RaBitQ 论文的 Theorem 3.2 中,已经严格证明 RaBitQ 的误差界达到了理论电脑顶级会议论文给出的渐近最优误差界。

2025 年 5 月,RaBitQ 团队曾透过邮件多轮澄清,TurboQuant 第二作者确认已通知全体作者,但论文最终仍保留错误描述。

TurboQuant 论文问题三:刻意创造不公平的实验环境

TurboQuant 论文在对比实验中,使用单核 CPU 且关闭多线程测试 RaBitQ,而 TurboQuant 则使用 A100 GPU 测试,导致 RaBitQ 速度被严重低估。

高健扬指出,这两点都未在论文中充分披露,使读者误以为 RaBitQ 比 TurboQuant 慢数个数量级,却无从知道这个结论建立在刻意创造的不公平实验条件之上。

高健扬表示,他们已在 ICLR OpenReview 平台发表公开评论,并向 ICLR General Chairs、PC Chairs 及伦理委员会提交正式投诉。

接下来,RaBitQ 团队将在 arXiv 发布详细技术报告,并考虑向相关机构进一步反映。

高健扬强调,此举目的是确保学术纪录準确反映各方法之间的真实关係,并呼吁业界注意 TurboQuant 论文背后的问题。

发布于 2026-03-28 18:11
收藏
1
上一篇:迪士尼新 CEO 遇利空 OpenAI 合作案胎死腹中 下一篇:苹果学三星?扩大价格带 拚出货量 伯恩斯坦:摆脱纯高阶标籤 可通吃高低市场