Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Claude的中文税:问同样内容比英文多花65%token,OpenAI只多15%
Menurut pemantauan Beating, peneliti AI Aran Komatsuzaki menerjemahkan makalah terkenal Rich Sutton “Pelajaran Pahit” (The Bitter Lesson) ke dalam 9 bahasa, lalu memasukkan ke dalam alat tokenisasi model-model OpenAI, Gemini, Qwen, DeepSeek, Kimi, Claude 6, untuk melihat berapa kali lipat jumlah token yang digunakan dibandingkan dengan teks asli dalam bahasa Inggris sebagai patokan. Hasilnya: isi yang sama jika ditanyakan ke Claude dalam bahasa Mandarin, konsumsi token-nya 1,65 kali lipat dari patokan; jika menggunakan OpenAI hanya 1,15 kali lipat. Dalam bahasa Hindi di Claude bahkan lebih ekstrem, melebihi 3 kali lipat dari patokan. Dalam enam model tersebut, Anthropic berada di posisi terbawah.
Terjemahan akan mengubah panjang teks, jadi rasio dibandingkan dengan bahasa Inggris tidak sepenuhnya akurat. Tapi yang lebih meyakinkan adalah performa teks Mandarin yang sama di berbagai model (dengan patokan yang sama): Kimi hanya membutuhkan 0,81 kali lipat (lebih sedikit dari Inggris), Qwen 0,85 kali, dan di Claude menjadi 1,65 kali lipat. Teksnya sama persis, perbedaan murni karena efisiensi alat tokenisasi. Model-model China yang memproses Mandarin lebih hemat daripada Inggris, menunjukkan bahwa masalahnya bukan pada bahasa Mandarin itu sendiri, melainkan pada apakah alat tokenisasi tersebut sudah dioptimalkan untuk bahasa tersebut.
Bagi pengguna, semakin banyak token, API menjadi lebih mahal langsung, waktu tunggu sebelum model menjawab juga lebih lama, dan jendela konteks cepat habis. Efisiensi alat tokenisasi tergantung pada proporsi bahasa dalam data pelatihan: data Inggris banyak, kata-kata Inggris dikompresi secara efisien; data non-Inggris sedikit, hanya bisa dipotong menjadi fragmen kecil. Kesimpulan Aran: siapa yang pasar lebih besar, mereka akan lebih hemat token.