Skip to main content

RaBitQ 作者对 TurboQuant 在方法描述、理论对比及实验公开性上的关切:我们必须公开澄清谷歌 ICLR 2026 论文《TurboQuant》中存在的严重问题

  1. LoopDNS资讯播报
    Google发布针对大模型推理与向量检索的内存瓶颈的量化算法TurboQuant TurboQuant先对输入向量做随机旋转并完成主体量化,再用1-bit的QJL对残差做校正,以同时控制均方误差和内积失真;论文将其描述为一种适合在线部署、数据无关、并在理论上接近信息论下界的量化方法。 Google主要使用Gemma和Mistral,并在LongBench、Needle In A Haystack、ZeroSCROLLS、RULER和L-Eval等长上下文基准上评估该方法。按官方博文披露,TurboQuant可将KV…
    RaBitQ 作者对 TurboQuant 在方法描述、理论对比及实验公开性上的关切:

    我们必须公开澄清谷歌 ICLR 2026 论文《TurboQuant》中存在的严重问题。

    TurboQuant 在三个方面对 RaBitQ 进行了不实表述:
    1. 回避承认关键方法上的相似性(JL 变换)
    2. 在缺乏证据的情况下,将我们的理论称为“次优”
    3. 在实验设置不公的情况下报告结果

    我们早在论文提交前就已向作者提出过相关疑虑,但对方并未在投稿时予以修正。该论文最终被 ICLR 2026 收录,并获谷歌大力推广(浏览量达数千万次)。在这种量级的传播下,未经纠正的论断极易演变为“公认结论”。

    事实如下:
    1. RaBitQ 已证明其渐近最优性(基于 FOCS’17 的边界结果)
    2. TurboQuant 采用了相同的随机旋转步骤,却未阐明其与相关方法的联系
    他们的实验中,RaBitQ 在单核 CPU 上运行,而 TurboQuant 则在 A100 GPU 上运行。

    这些内容均未得到适当披露。

    我们已提交正式投诉,并在 OpenReview 平台上发布了相关内容。
    openreview.net/forum?id=tO3ASKZlok