GoogleのAI論文、破壊的なストレージ株900億ドルに関して、実験の捏造が指摘されている

作者:深潮 TechFlow

谷歌が「AIのメモリ使用量を6分の1に圧縮した」と称する論文が先週、MicronやSanDiskなどの世界的なストレージチップ株の時価総額合計900億ドル超の蒸発を引き起こした。

しかし、論文が発表されてからわずか二日で、アルゴリズムに「圧倒」された比較対象――チューリッヒ連邦工科大学の博士後期課程の高健揚が万字の公開書簡を発表し、谷歌チームが実験でシングルコアCPUのPythonスクリプトで対戦相手をテストし、A100 GPUで自分たちをテストしたと指摘し、投稿前に問題を指摘されたにもかかわらず修正を拒否したと告発しました。Zhihuの閲覧数は瞬時に400万を突破し、Stanford NLPの公式アカウントがリツイートし、学術界と市場が同時に揺れ動きました。

(参考文献:一篇論文,把存储股打了下去)

この論争の核心的な問題はそれほど複雑ではありません:谷歌が公式に大規模にプロモーションを行い、世界的なチップセクターのパニック的な売りを直接引き起こしたAIの頂点会議論文が、発表済みの先行研究を体系的に歪め、不公平な実験を故意に作り出すことで、虚偽の性能優位性の物語を構築したのか?

TurboQuantが何をしたのか:AIの「草稿用紙」を元の六分の一に圧縮

大規模言語モデルは回答を生成する際に、書きながら過去に計算した内容を振り返る必要があります。これらの中間結果は一時的にVRAMに保存されており、業界では「KV Cache」(キー・バリューキャッシュ)と呼ばれています。対話が長くなるほど、この「草稿用紙」は厚くなり、VRAMの消費が増え、コストも高くなります。

谷歌研究チームが開発したTurboQuantアルゴリズムの核心的な売りは、この草稿用紙を元の1/6に圧縮することであり、同時に精度ゼロ損失、推論速度が最大8倍向上すると主張しています。論文は2025年4月に学術プリプリントプラットフォームarXivに初めて公開され、2026年1月にAI分野のトップ会議ICLR 2026に受理され、3月24日に谷歌の公式ブログで再包装されてプロモーションされました。

技術的な側面で、TurboQuantの考え方は簡単に理解できます:最初に数学的変換を使って雑然としたデータを「洗浄」し、統一形式に変え、その後、事前に計算された最適圧縮テーブルを使用して個別に圧縮し、最後に1ビットの誤り訂正メカニズムを使用して圧縮による計算誤差を修正します。コミュニティの独立した実装により、圧縮効果が基本的に真実であることが確認されています。アルゴリズムレベルでの数学的な貢献は現実に存在します。

争点はTurboQuantを使用できるかどうかではなく、谷歌がそれを「競合を遥かに超えている」と証明するために何をしたかです。

高健揚の公開書簡:三つの指摘、いずれも核心を突く

3月27日夜10時、高健揚はZhihuに長文を投稿し、同時にICLR公式査読プラットフォームOpenReviewに正式なコメントを提出しました。高健揚はRaBitQアルゴリズムの第一著者であり、このアルゴリズムは2024年にデータベース分野のトップ会議SIGMODに発表され、同じ種類の問題を解決しています。

彼の指摘は三つに分けられ、それぞれの指摘にはメール記録とタイムラインの証拠があります。

指摘一:他人の核心的な方法を使い、全文で言及しない。

TurboQuantとRaBitQの技術的な核心には、圧縮データの前にデータを「ランダム回転」するという共通の重要なステップがあります。この操作の目的は、元々不規則に分布しているデータを予測可能な均一分布に変えることによって、圧縮の難易度を大幅に低下させることです。これは二つのアルゴリズムで最も核心的で近い部分です。

TurboQuantの著者自身が査読の返信でこれを認めていますが、論文全体ではこの方法とRaBitQの関連について正面から説明したことはありません。より重要な背景は、TurboQuantの第二著者Majid Daliriが2025年1月に高健揚チームに連絡を取り、RaBitQのソースコードを基にしたPythonバージョンのデバッグを依頼したことです。メールには再現ステップとエラー情報が詳細に記述されています――言い換えれば、TurboQuantチームはRaBitQの技術的詳細を非常によく理解しています。

ICLRの匿名の査読者も独立して両者が同じ技術を使用していることを指摘し、十分な議論を求めました。しかし、最終版論文では、TurboQuantチームは補足的な議論を追加せず、むしろ本来の本文からRaBitQに関する(すでに不完全な)記述を付録に移しました。

指摘二:根拠もなく相手の理論を「次善」とする。

TurboQuant論文はRaBitQに「理論次善」(suboptimal)というラベルを直接貼り付け、その理由はRaBitQの数学的分析が「比較的粗い」からだとしています。しかし高健揚は、RaBitQの拡張版論文がその圧縮誤差が数学的に最適界に達したことを厳密に証明していると指摘しています――この結論は理論計算機科学のトップ会議で発表されています。

2025年5月、高健揚チームは数回にわたってRaBitQ理論の最適性を詳細に説明するメールを送信しました。TurboQuantの第二著者Daliriは全著者に通知したことを確認しました。しかし、論文は最終的に「次善」の表現を保持し、反論の根拠は何も示しませんでした。

指摘三:実験比較において「左手を縛り、右手に刀を持つ」。

これは全文で最も致命的な指摘です。高健揚は、TurboQuant論文が速度比較実験で二重の不公平条件を重ねていることを指摘しました:

第一に、RaBitQは公式に最適化されたC++コード(デフォルトでマルチスレッド並列サポート)を提供しましたが、TurboQuantチームはこれを使用せず、自分たちが翻訳したPythonバージョンでRaBitQをテストしました。第二に、RaBitQをテストする際に使用されたのはシングルコアCPUであり、マルチスレッドはオフにされており、TurboQuantはNVIDIA A100 GPUを使用しました。

これらの条件が重なることにより、読者が目にする結論は「RaBitQはTurboQuantよりも数桁遅い」というものであり、しかしこの結論の前提は谷歌チームが対戦相手の手足を縛った後に競争を行ったということです。論文中にはこれらの実験条件の差異が十分に開示されていません。

谷歌の反応:「ランダム回転は一般的な技術であり、各論文を引用することは不可能」

高健揚によれば、TurboQuantチームは2026年3月のメール返信で次のように述べました:「ランダム回転とJohnson-Lindenstrauss変換の使用はすでにこの分野の標準技術であり、これらの方法を使用したすべての論文を引用することは不可能です。」

高健揚チームはこれを概念のすり替えだと考えています:問題はランダム回転を使用したすべての論文を引用する必要があるかどうかではなく、RaBitQが完全に同じ問題設定の下で、この方法をベクトル圧縮と結びつけてその最適性を証明した最初の研究であるため、TurboQuant論文は両者の関係を正確に記述すべきです。

Stanford NLP Groupの公式Xアカウントが高健揚の声明をリツイートしました。高健揚チームはICLR OpenReviewプラットフォームで公開コメントを発表し、ICLR大会の議長および倫理委員会に正式な苦情を提出しました。今後、arXivに詳細な技術報告を発表する予定です。

独立した技術ブロガーDario Salvatiは分析の中で比較的中立的な評価を示しました:TurboQuantは数学的手法において確かに真実の貢献がありますが、RaBitQとの関係は論文が表現しているよりも遥かに密接です。

900億ドルの時価総額が蒸発:論文の争議が市場の恐慌を重ねる

この学術的な論争が発生したタイミングは非常に微妙です。谷歌は3月24日に公式ブログでTurboQuantを発表した後、グローバルなストレージチップセクターは激しい売りに見舞われました。CNBCなどの多くのメディアの報道によれば、Micron Technologyは連続して6日間下落し、累計下落率は20%を超えました;SanDiskは1日の下落率が11%に達しました;韓国のSKハイニックスは約6%、Samsung Electronicsは約5%下落し、日本のKioxiaは約6%下落しました。市場の恐慌ロジックは簡単で粗暴です:ソフトウェア圧縮がAI推論のメモリ要求を6倍に低下させることができるなら、ストレージチップの需要の見通しは構造的に下方修正されるでしょう。

モルガン・スタンレーのアナリストJoseph Mooreは3月26日のリサーチレポートでこのロジックに反論し、MicronとSanDiskの「買い増し」評価を維持しました。Mooreは、TurboQuantが圧縮しているのはKV Cacheという特定のタイプのキャッシュのみであり、全体のメモリ使用量ではないと指摘し、それを「通常の生産性向上」と定義しました。富国銀行のアナリストAndrew Rochaも、ジェヴンズの逆説を引用し、効率の向上がコストを下げると逆により大規模なAIの展開を刺激し、最終的にメモリ需要を押し上げる可能性があると述べました。

古い論文、新しいパッケージ:AI研究から市場の物語への伝導チェーンのリスク

技術ブロガーBen Pouladianの分析によれば、TurboQuant論文は2025年4月にすでに公開されており、新しい研究ではありません。3月24日、谷歌が公式ブログで再包装してプロモーションしましたが、市場はこれを全く新しいブレークスルーとして価格設定しました。この「古い論文、新しい発表」というプロモーション戦略は、論文中に存在する可能性のある実験的偏差と相まって、AI研究から市場の物語に至る伝導チェーンにおける体系的リスクを反映しています。

AI基盤インフラ投資家にとって、一篇の論文が「数桁の性能向上を達成した」と主張する際には、まず基準比較の条件が公平であるかどうかを問い直す必要があります。

高健揚チームは問題の正式な解決を引き続き推進する意向を明確にしています。谷歌側はまだ公開書簡の具体的な指摘に対して正式な反応を示していません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン