谷歌Sumber TerbukaGemma-3:媲美DeepSeek,Daya Komputasi暴降

GoldenOctober2024
DEEPSEEK-13,37%

Data Golden March 13th, Google (GOOG.O) CEO Sundar Pichai announced last night that the latest multimodal large model GEMMA-3 from Open Source is designed for low cost and high performance. GEMMA-3 has four parameters: 1 billion, 4 billion, 12 billion, and 27 billion. But even with the largest 27 billion parameters, only one H100 is needed for efficient inference, which is at least 10 times less Daya Komputasi than similar models to achieve this effect, and it is currently the strongest small parameter model. According to blind test LMSYS ChatbotArena data, GEMMA-3 is second only to DeepSeek’s R1-671B, higher than OpenAI’s O3-MINI, Llama3-405B and other well-known models.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar