Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Runtuhnya saham penyimpanan dan Google AI paper senilai 900 miliar dolar AS, dituduh melakukan eksperimen palsu
Penulis: Deep潮 TechFlow
Sebuah makalah dari Google yang mengklaim “mengompresi penggunaan memori AI hingga 1/6” minggu lalu menyebabkan nilai pasar chip penyimpanan global seperti Micron, SanDisk, dan lainnya menguap lebih dari 900 miliar dolar AS.
Namun, hanya dua hari setelah publikasi makalah tersebut, pihak yang dikalahkan dalam perbandingan—peneliti postdoctoral dari ETH Zurich, Gao Jianyang, merilis surat terbuka sepanjang sepuluh ribu kata, menuduh tim Google menggunakan skrip Python dengan CPU tunggal untuk menguji lawan, sementara mereka sendiri menguji dengan GPU A100, dan meskipun sudah diberi tahu tentang masalah tersebut sebelum pengajuan, mereka tetap menolak memperbaikinya. Jumlah pembaca di Zhihu dengan cepat menembus 4 juta, akun resmi Stanford NLP membagikan ulang, dan komunitas akademik serta pasar pun berguncang secara bersamaan.
(Referensi bacaan: Sebuah makalah yang menjatuhkan saham penyimpanan)
Inti dari kontroversi ini tidak rumit: Apakah sebuah makalah yang dipromosikan secara besar-besaran oleh Google dan langsung memicu kepanikan jual besar-besaran di sektor chip, secara sistematis memutarbalikkan karya sebelumnya yang sudah dipublikasikan, dan melalui eksperimen yang tidak adil secara sengaja, membentuk narasi keunggulan kinerja palsu?
Apa yang dilakukan TurboQuant: Mengurangi “kertas kerja” AI menjadi sepertiga dari ukuran aslinya
Model bahasa besar saat menghasilkan jawaban harus menulis sekaligus meninjau kembali isi yang telah dihitung sebelumnya. Hasil sementara ini disimpan sementara di memori grafis, yang dalam industri disebut “KV Cache” (cache kunci-nilai). Semakin panjang percakapan, semakin tebal “kertas kerja” ini, semakin besar konsumsi memori, dan semakin tinggi biaya.
Algoritma TurboQuant yang dikembangkan tim riset Google, inti keunggulannya adalah mengompresi kertas kerja ini hingga sepertiga dari ukuran aslinya, dengan klaim tanpa kehilangan akurasi dan kecepatan inferensi meningkat hingga 8 kali lipat. Makalah ini pertama kali dipublikasikan di platform preprint arXiv pada April 2025, diterima di konferensi terkemuka bidang AI, ICLR 2026, pada Januari 2026, dan pada 24 Maret dipromosikan kembali melalui blog resmi Google.
Secara teknis, ide TurboQuant dapat disederhanakan sebagai: pertama, menggunakan transformasi matematis untuk “membersihkan” data yang berantakan menjadi format seragam; kemudian, menggunakan tabel kompresi optimal yang sudah dihitung sebelumnya untuk mengompresi satu per satu; terakhir, menggunakan mekanisme koreksi error satu bit untuk memperbaiki deviasi perhitungan akibat kompresi. Implementasi independen komunitas telah memverifikasi efektivitas kompresi ini, dan kontribusi matematis algoritma ini memang nyata.
Kontroversi bukan soal apakah TurboQuant bisa digunakan, tetapi apa yang dilakukan Google untuk membuktikan bahwa ini “jauh melampaui pesaing.”
Surat terbuka Gao Jianyang: Tiga tuduhan, semuanya menyentuh inti
Pada pukul 10 malam, 27 Maret, Gao Jianyang memposting artikel panjang di Zhihu, dan secara bersamaan mengirim komentar resmi di platform review peer ICLR, OpenReview. Gao Jianyang adalah penulis utama algoritma RaBitQ, yang dipublikasikan pada 2024 di SIGMOD, konferensi top di bidang basis data, yang juga mengatasi masalah serupa—kompresi efisien vektor berdimensi tinggi.
Tuduhannya terbagi menjadi tiga poin, masing-masing didukung oleh catatan email dan garis waktu.
Tuduhan pertama: Menggunakan metode inti orang lain tanpa menyebutkan.
Teknologi utama TurboQuant dan RaBitQ memiliki langkah kunci yang sama: sebelum mengompresi data, melakukan “rotasi acak” terhadap data tersebut. Langkah ini berfungsi mengubah data yang tidak beraturan menjadi distribusi seragam yang dapat diprediksi, sehingga secara signifikan mengurangi kesulitan kompresi. Ini adalah bagian paling inti dan paling dekat secara teknis dari kedua algoritma.
Penulis TurboQuant sendiri dalam balasan review juga mengakui hal ini, tetapi dalam makalah lengkap mereka tidak pernah secara langsung menjelaskan hubungan metode ini dengan RaBitQ. Lebih penting lagi, latar belakangnya adalah: rekan penulis kedua TurboQuant, Majid Daliri, pada Januari 2025, secara aktif menghubungi tim Gao Jianyang, meminta bantuan dalam debugging versi Python yang dia modifikasi dari kode sumber RaBitQ. Dalam email tersebut dijelaskan secara rinci langkah reproduksi dan pesan error—dengan kata lain, tim TurboQuant sangat mengetahui detail teknis RaBitQ.
Seorang reviewer anonim dari ICLR juga secara independen menunjukkan bahwa keduanya menggunakan teknik yang sama dan meminta diskusi lengkap. Tetapi dalam versi akhir makalah, tim TurboQuant tidak menambahkan diskusi tersebut, malah memindahkan deskripsi tentang RaBitQ yang sudah tidak lengkap dari badan utama ke lampiran.
Tuduhan kedua: Mengklaim teori “suboptimal” tanpa dasar.
Makalah TurboQuant langsung memberi label RaBitQ sebagai “suboptimal” (kurang optimal), dengan alasan analisis matematis RaBitQ “terlalu kasar.” Tetapi Gao Jianyang menunjukkan bahwa makalah pengembangan RaBitQ telah secara ketat membuktikan bahwa kesalahan kompresinya mencapai batas optimal secara matematis—kesimpulan ini dipublikasikan di konferensi terkemuka bidang ilmu komputer teoretis.
Pada Mei 2025, tim Gao Jianyang melalui beberapa email menjelaskan secara rinci keunggulan teori RaBitQ. Daliri, penulis kedua TurboQuant, mengonfirmasi bahwa seluruh penulis telah diberitahu. Tetapi makalah akhirnya tetap menyebutkan “suboptimal” tanpa memberikan argumen bantahan apa pun.
Tuduhan ketiga: Perbandingan eksperimen “mempermainkan aturan dan menodai”.
Ini adalah poin paling mematikan dari seluruh artikel. Gao Jianyang menunjukkan bahwa dalam eksperimen kecepatan, TurboQuant menambahkan dua kondisi tidak adil:
Pertama, RaBitQ resmi menyediakan kode C++ yang sudah dioptimalkan (secara default mendukung multithreading), tetapi tim TurboQuant tidak menggunakannya, melainkan menggunakan versi Python yang mereka terjemahkan sendiri. Kedua, saat menguji RaBitQ, mereka menggunakan CPU tunggal dan mematikan multithreading, sementara TurboQuant menggunakan GPU NVIDIA A100.
Akibat dari dua kondisi ini adalah: pembaca melihat kesimpulan bahwa “RaBitQ jauh lebih lambat dari TurboQuant,” tetapi tidak tahu bahwa premisnya adalah tim Google membatasi lawan mereka sebelum perlombaan. Makalah ini tidak cukup mengungkapkan perbedaan kondisi eksperimen tersebut.
Tanggapan Google: “Rotasi acak adalah teknik umum, tidak mungkin mengutip semua makalah yang menggunakannya”
Menurut Gao Jianyang, dalam email balasan Maret 2026, tim TurboQuant menyatakan: “Penggunaan rotasi acak dan transformasi Johnson-Lindenstrauss sudah menjadi standar di bidang ini, kami tidak mungkin mengutip setiap makalah yang menggunakannya.”
Tim Gao Jianyang menganggap ini sebagai pengalihan konsep: masalahnya bukan soal mengutip semua makalah yang pernah menggunakan rotasi acak, tetapi bahwa RaBitQ adalah karya pertama yang menggabungkan metode ini dengan kompresi vektor dan membuktikan keunggulannya dalam kondisi yang sama persis, dan makalah TurboQuant seharusnya secara akurat menggambarkan hubungan keduanya.
Akun resmi Stanford NLP membagikan pernyataan Gao Jianyang di X (Twitter). Tim Gao Jianyang juga telah mempublikasikan komentar di platform OpenReview ICLR dan mengajukan keluhan resmi kepada ketua konferensi dan komite etik, serta akan merilis laporan teknis lengkap di arXiv.
Seorang blogger teknologi independen, Dario Salvati, memberikan penilaian netral: TurboQuant memang memiliki kontribusi matematis yang nyata, tetapi hubungan mereka dengan RaBitQ jauh lebih dekat daripada yang digambarkan dalam makalah.
Uang menguap 90 miliar dolar: Kontroversi makalah menambah kepanikan pasar
Waktu terjadinya kontroversi ini sangat sensitif. Setelah Google merilis TurboQuant melalui blog resmi pada 24 Maret, sektor chip penyimpanan global mengalami penjualan besar-besaran. Menurut CNBC dan media lain, saham Micron turun selama enam hari berturut-turut, total penurunan lebih dari 20%; SanDisk turun 11% dalam satu hari; SK Hynix turun sekitar 6%, Samsung Electronics turun hampir 5%, dan Kioxia turun sekitar 6%. Logika kepanikan pasar sangat sederhana: perangkat lunak kompresi ini dapat mengurangi kebutuhan memori inferensi AI hingga 6 kali lipat, sehingga prospek permintaan chip penyimpanan akan mengalami penurunan struktural.
Analis Morgan Stanley, Joseph Moore, pada laporan 26 Maret membantah logika ini dan mempertahankan rekomendasi “buy” untuk Micron dan SanDisk. Moore menunjukkan bahwa TurboQuant hanya mengompresi cache tipe tertentu, yaitu KV Cache, bukan total penggunaan memori, dan menganggapnya sebagai “peningkatan produktivitas yang normal.” Analis Wells Fargo, Andrew Rocha, juga mengutip paradoks Jevons, yang menyatakan bahwa peningkatan efisiensi dan pengurangan biaya justru dapat mendorong deployment AI yang lebih besar, akhirnya meningkatkan permintaan memori.
Makalah lama, kemasan baru: Risiko rantai transmisi dari riset AI ke narasi pasar
Menurut analisis blogger teknologi Ben Pouladian, makalah TurboQuant sudah dipublikasikan sejak April 2025 dan bukan penelitian baru. Pada 24 Maret, Google mempromosikannya kembali melalui blog resmi, tetapi pasar malah menilainya sebagai terobosan baru. Strategi promosi “makalah lama, dirilis ulang” ini, ditambah potensi bias eksperimen dalam makalah tersebut, mencerminkan risiko sistemik dalam rantai transmisi dari riset akademik ke narasi pasar terkait AI.
Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim peningkatan kinerja “beberapa tingkat besar,” hal pertama yang harus dipertanyakan adalah apakah kondisi pembandingnya adil.
Tim Gao Jianyang telah menyatakan akan terus mendorong penyelesaian masalah secara resmi. Pihak Google belum memberikan tanggapan resmi terhadap tuduhan dalam surat terbuka ini.