Berita dari Las Vegas, 5 Januari, baru saja, pendiri dan CEO Nvidia Huang Renxun menyampaikan pidato utama pertama tahun 2026 di International Consumer Electronics Show CES 2026. Huang Renxun seperti biasa mengenakan jaket kulit, dalam 1,5 jam mengumumkan 8 pengumuman penting secara berurutan, mulai dari chip, rak, hingga desain jaringan, dengan pengenalan mendalam tentang seluruh platform generasi baru.
Di bidang komputasi percepatan dan infrastruktur AI, Nvidia merilis komputer super NVIDIA Vera Rubin POD AI, perangkat optik terintegrasi Ethernet NVIDIA Spectrum-X, platform penyimpanan memori inferensi NVIDIA, dan NVIDIA DGX SuperPOD berbasis DGX Vera Rubin NVL72.
NVIDIA Vera Rubin POD menggunakan 6 chip buatan Nvidia sendiri, mencakup CPU, GPU, Scale-up, Scale-out, penyimpanan, dan kemampuan pemrosesan, semua bagian dirancang secara kolaboratif, memenuhi kebutuhan model canggih dan menurunkan biaya komputasi.
Di antaranya, Vera CPU menggunakan arsitektur inti Olympus yang dikustomisasi, Rubin GPU memperkenalkan mesin Transformer dengan performa inferensi NBFP4 hingga 50PFLOPS, bandwidth NVLink setiap GPU mencapai 3,6TB/s, mendukung komputasi rahasia umum generasi ketiga (TEE tingkat rak pertama), mewujudkan lingkungan eksekusi yang lengkap dan terpercaya lintas domain CPU dan GPU.
Chip-chip ini telah kembali ke wafer, Nvidia telah melakukan verifikasi seluruh sistem NVIDIA Vera Rubin NVL72, mitra juga telah mulai menjalankan model dan algoritma AI internal mereka, seluruh ekosistem sedang mempersiapkan deployment Vera Rubin.
Dalam pengumuman lainnya, perangkat optik Ethernet NVIDIA Spectrum-X secara signifikan meningkatkan efisiensi daya dan waktu operasional aplikasi; platform penyimpanan memori inferensi NVIDIA mendefinisikan ulang tumpukan penyimpanan untuk mengurangi penghitungan ulang dan meningkatkan efisiensi inferensi; DGX SuperPOD berbasis DGX Vera Rubin NVL72 menurunkan biaya token model MoE besar hingga 1/10.
Dalam hal model terbuka, Nvidia mengumumkan perluasan keluarga model sumber terbuka, merilis model, dataset, dan pustaka baru, termasuk seri model open-source NVIDIA Nemotron yang menambahkan model Agentic RAG, model keamanan, model suara, serta model terbuka baru yang cocok untuk semua jenis robot. Namun, Huang Renxun tidak menjelaskan secara rinci dalam pidatonya.
Dalam bidang AI fisik, Waktunya ChatGPT fisik telah tiba, teknologi lengkap Nvidia memungkinkan ekosistem global mengubah industri melalui robot berbasis AI; perpustakaan alat AI Nvidia yang luas, termasuk rangkaian model open-source Alpamayo yang baru, memungkinkan industri transportasi global dengan cepat mewujudkan L4 mengemudi yang aman; platform pengemudian otomatis NVIDIA DRIVE kini sudah diproduksi, dipasang di semua Mercedes-Benz CLA terbaru, untuk mengemudi AI L2++.
01. Komputer super AI baru: 6 chip buatan sendiri, daya komputasi satu rak mencapai 3.6EFLOPS
Huang Renxun berpendapat, setiap 10 hingga 15 tahun, industri komputer akan mengalami transformasi besar, tetapi kali ini, dua perubahan platform terjadi bersamaan, dari CPU ke GPU, dari “perangkat lunak pemrograman” ke “perangkat lunak pelatihan”, percepatan komputasi dan AI merekonstruksi seluruh tumpukan komputasi. Industri komputasi senilai 10 triliun dolar dalam dekade terakhir sedang menjalani modernisasi.
Sementara itu, permintaan terhadap daya komputasi melonjak tajam. Ukuran model tumbuh 10 kali lipat setiap tahun, jumlah token yang digunakan untuk berpikir meningkat 5 kali lipat setiap tahun, dan harga per token menurun 10 kali lipat setiap tahun.
Untuk mengatasi kebutuhan ini, Nvidia memutuskan untuk merilis hardware komputasi baru setiap tahun. Huang Renxun mengungkapkan, saat ini Vera Rubin juga sudah mulai diproduksi secara penuh.
Komputer super AI terbaru Nvidia, NVIDIA Vera Rubin POD, menggunakan 6 chip buatan sendiri: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 (CX9) smart NIC, BlueField-4 DPU, Spectrum-X 102.4T CPO.
Vera CPU: dirancang untuk perpindahan data dan pemrosesan agen cerdas, memiliki 88 inti Olympus buatan Nvidia, 176 thread multi-threading Nvidia, NVLink-C2C 1.8TB/s mendukung memori terpadu CPU:GPU, memori sistem mencapai 1,5TB (3 kali lipat dari Grace CPU), bandwidth memori LPDDR5X SOCAMM sebesar 1,2TB/s, dan mendukung komputasi rahasia tingkat rak, performa pemrosesan data meningkat dua kali lipat.
Rubin GPU: memperkenalkan mesin Transformer, performa inferensi NVFP4 mencapai 50PFLOPS, 5 kali lipat dari GPU Blackwell, kompatibel ke belakang, meningkatkan performa BF16/FP4 sambil menjaga akurasi inferensi; performa pelatihan NVFP4 mencapai 35PFLOPS, 3,5 kali lipat dari Blackwell.
Rubin juga merupakan platform pertama yang mendukung HBM4, dengan bandwidth HBM4 mencapai 22TB/s, 2,8 kali lipat dari generasi sebelumnya, mampu memenuhi kebutuhan performa model MoE yang ketat dan beban kerja AI.
NVLink 6 Switch: kecepatan jalur tunggal meningkat menjadi 400Gbps, menggunakan teknologi SerDes untuk transmisi sinyal berkecepatan tinggi; setiap GPU dapat mencapai bandwidth komunikasi interkoneksi 3,6TB/s, dua kali lipat dari generasi sebelumnya, total bandwidth mencapai 28,8TB/s, performa in-network compute dengan presisi FP8 mencapai 14,4TFLOPS, mendukung pendinginan cairan 100%.
NVIDIA ConnectX-9 SuperNIC: menyediakan bandwidth 1,6Tb/s per GPU, dioptimalkan untuk AI skala besar, memiliki jalur data yang sepenuhnya didefinisikan perangkat lunak, dapat diprogram, dan mempercepat.
NVIDIA BlueField-4: DPU 800Gbps, digunakan untuk smart NIC dan prosesor penyimpanan, dilengkapi CPU Grace 64-core, dikombinasikan dengan ConnectX-9 SuperNIC, untuk mengurangi beban komputasi terkait jaringan dan penyimpanan, sekaligus meningkatkan keamanan jaringan, performa komputasi 6 kali lipat dari generasi sebelumnya, bandwidth memori 3 kali lipat, kecepatan akses data dari GPU ke penyimpanan meningkat 2 kali.
NVIDIA Vera Rubin NVL72: mengintegrasikan semua komponen di atas ke dalam sistem pengolahan rak tunggal, memiliki 2 triliun transistor, performa inferensi NVFP4 mencapai 3,6EFLOPS, performa pelatihan NVFP4 mencapai 2,5EFLOPS.
Memori LPDDR5X sistem mencapai 54TB, 2,5 kali lipat dari generasi sebelumnya; total memori HBM4 mencapai 20,7TB, 1,5 kali lipat; bandwidth HBM4 mencapai 1,6PB/s, 2,8 kali lipat dari generasi sebelumnya; total bandwidth vertikal mencapai 260TB/s, melebihi kapasitas bandwidth internet global.
Sistem ini berbasis desain rak MGX generasi ketiga, tray komputasi menggunakan desain modular, tanpa host, tanpa kabel, tanpa kipas, mempercepat pemasangan dan pemeliharaan 18 kali lipat dibanding GB200. Sebelumnya, pemasangan membutuhkan 2 jam, sekarang hanya sekitar 5 menit, dan sebelumnya sekitar 80% pendinginan cair, kini 100% menggunakan cairan pendingin. Berat sistem tunggal mencapai 2 ton, dengan tambahan cairan pendingin bisa mencapai 2,5 ton.
Tray NVLink Switch mampu melakukan pemeliharaan tanpa henti dan toleransi kesalahan, saat tray dilepas atau sebagian terpasang, rak tetap dapat berjalan. Mesin RAS generasi kedua dapat melakukan pemeriksaan kondisi tanpa henti.
Fitur-fitur ini meningkatkan waktu operasional dan throughput sistem, secara lebih lanjut menurunkan biaya pelatihan dan inferensi, memenuhi kebutuhan pusat data akan keandalan tinggi dan kemudahan perawatan.
Lebih dari 80 mitra MGX telah siap mendukung deployment Rubin NVL72 dalam jaringan skala besar.
02. Tiga produk baru meningkatkan efisiensi inferensi AI secara besar-besaran: perangkat CPO baru, lapisan penyimpanan konteks baru, DGX SuperPOD berbasis Vera Rubin NVL72
Selain itu, Nvidia merilis 3 produk penting: perangkat optik Ethernet NVIDIA Spectrum-X, platform penyimpanan memori inferensi NVIDIA, dan DGX SuperPOD berbasis Vera Rubin NVL72.
1. NVIDIA Spectrum-X perangkat optik Ethernet terintegrasi
Perangkat optik Ethernet NVIDIA Spectrum-X berbasis arsitektur Spectrum-X, menggunakan 2 chip, dengan teknologi SerDes 200Gbps, setiap ASIC mampu menyediakan bandwidth 102,4Tb/s.
Platform switch ini mencakup sistem berkapasitas tinggi 512 port dan sistem kompak 128 port, masing-masing port berkecepatan 800Gb/s.
Sistem switch CPO (co-packaged optical) ini mampu meningkatkan efisiensi energi 5 kali, keandalan 10 kali, dan waktu operasional aplikasi 5 kali lipat.
Ini berarti dapat memproses lebih banyak token setiap hari, sehingga menurunkan total biaya kepemilikan (TCO) pusat data secara signifikan.
2. Platform penyimpanan memori inferensi NVIDIA
Platform penyimpanan memori inferensi NVIDIA adalah infrastruktur penyimpanan AI asli POD-level untuk menyimpan KV Cache, berbasis BlueField-4 dan Spectrum-X Ethernet, terintegrasi erat dengan NVIDIA Dynamo dan NVLink, mewujudkan koordinasi konteks antara memori, penyimpanan, dan jaringan.
Platform ini memperlakukan konteks sebagai tipe data utama, mampu meningkatkan performa inferensi 5 kali lipat dan efisiensi energi 5 kali lipat.
Ini sangat penting untuk memperbaiki aplikasi konteks panjang seperti dialog multi-putar, RAG, dan inferensi multi-langkah Agentic, yang sangat bergantung pada kemampuan menyimpan, menggunakan kembali, dan berbagi konteks secara efisien di seluruh sistem.
AI sedang berkembang dari chatbot menjadi Agentic AI (agent cerdas), yang mampu melakukan inferensi, memanggil alat, dan memelihara status jangka panjang, dengan jendela konteks yang telah diperluas hingga jutaan token. Konteks ini disimpan dalam KV Cache, dan setiap langkah penghitungan ulang akan memboroskan waktu GPU dan menyebabkan latensi besar, sehingga perlu disimpan.
Namun, memori GPU yang cepat sangat langka, dan penyimpanan jaringan tradisional terlalu tidak efisien untuk konteks jangka pendek. Bottleneck inferensi AI beralih dari komputasi ke penyimpanan konteks. Oleh karena itu, diperlukan lapisan memori baru yang dioptimalkan untuk inferensi, yang berada di antara GPU dan penyimpanan.
Lapisan ini bukan sekadar patch pasca, tetapi harus dirancang secara kolaboratif dengan penyimpanan jaringan, untuk memindahkan data konteks dengan biaya paling rendah.
Sebagai lapisan penyimpanan baru, platform penyimpanan memori inferensi NVIDIA tidak langsung berada di sistem host, melainkan terhubung ke perangkat komputasi melalui BlueField-4. Keunggulan utamanya adalah mampu memperluas skala pool penyimpanan secara lebih efisien, menghindari penghitungan ulang KV Cache.
Nvidia sedang bekerja sama erat dengan mitra penyimpanan untuk memperkenalkan platform penyimpanan memori inferensi NVIDIA ke dalam platform Rubin, memungkinkan pelanggan menggunakannya sebagai bagian dari infrastruktur AI lengkap yang terintegrasi.
3. DGX SuperPOD berbasis Vera Rubin yang dibangun
Secara sistem, NVIDIA DGX SuperPOD sebagai blueprint deployment pabrik AI skala besar, menggunakan 8 sistem DGX Vera Rubin NVL72, dengan jaringan vertikal NVLink 6 dan jaringan horizontal Spectrum-X Ethernet, dilengkapi platform penyimpanan memori inferensi NVIDIA, dan telah melalui verifikasi rekayasa.
Seluruh sistem dikelola oleh perangkat lunak NVIDIA Mission Control, mencapai efisiensi maksimal. Pelanggan dapat menggunakannya sebagai platform siap pakai untuk menyelesaikan pelatihan dan inferensi dengan lebih sedikit GPU.
Karena kolaborasi optimal di tingkat 6 chip, tray, rak, pod, pusat data, dan perangkat lunak, platform Rubin secara signifikan menurunkan biaya pelatihan dan inferensi. Dibandingkan generasi Blackwell, pelatihan model MoE skala sama hanya membutuhkan seperempat jumlah GPU; dengan latensi yang sama, biaya token model MoE besar turun hingga 1/10.
NVIDIA DGX SuperPOD dengan sistem DGX Rubin NVL8 juga diluncurkan bersamaan.
Dengan arsitektur Vera Rubin, Nvidia bersama mitra dan pelanggan membangun sistem AI terbesar, tercanggih, dan termurah di dunia, mempercepat adopsi AI secara massal.
Infrastruktur Rubin akan tersedia melalui CSP dan integrator sistem pada paruh kedua tahun ini, dengan Microsoft dan lainnya menjadi pengguna awal.
03. Ekspansi lagi dunia model terbuka: kontributor penting model baru, data, dan ekosistem open-source
Di tingkat perangkat lunak dan model, Nvidia terus meningkatkan investasi open-source.
Platform pengembang utama seperti OpenRouter menunjukkan bahwa selama setahun terakhir, penggunaan model AI meningkat 20 kali lipat, sekitar seperempat token berasal dari model open-source.
Pada tahun 2025, Nvidia adalah kontributor terbesar model, data, dan resep open-source di Hugging Face, merilis 650 model open-source dan 250 dataset open-source.
Model open-source Nvidia menduduki peringkat teratas di berbagai daftar peringkat. Pengembang tidak hanya dapat menggunakan model-model ini, tetapi juga belajar dari mereka, melakukan pelatihan berkelanjutan, memperluas dataset, dan membangun sistem AI menggunakan alat open-source dan dokumentasi.
Terinspirasi oleh Perplexity, Huang Renxun mengamati bahwa Agents harus merupakan multi-model, multi-cloud, dan hybrid cloud, yang juga merupakan arsitektur dasar sistem Agentic AI, yang hampir semua startup mengadopsinya.
Dengan bantuan model dan alat open-source Nvidia, pengembang kini dapat menyesuaikan sistem AI mereka sendiri, dan menggunakan kemampuan model paling mutakhir. Saat ini, Nvidia telah mengintegrasikan kerangka kerja tersebut ke dalam “blueprint”, dan mengintegrasikannya ke platform SaaS. Pengguna dapat melakukan deployment cepat dengan blueprint ini.
Dalam demonstrasi langsung, sistem ini dapat secara otomatis menentukan apakah tugas harus diproses oleh model privat lokal atau model cloud terdepan, serta dapat memanggil alat eksternal (seperti API email, antarmuka kontrol robot, layanan kalender, dll), dan melakukan fusi multimodal, memproses teks, suara, gambar, dan sinyal sensor robot secara terpadu.
Kemampuan kompleks ini sebelumnya tidak terbayangkan, tetapi sekarang menjadi sangat sederhana. Di platform perusahaan seperti ServiceNow, Snowflake, kemampuan serupa sudah dapat digunakan.
04. Model Alpha-Mayo open-source, membuat mobil otonom “berpikir”
Nvidia percaya bahwa AI fisik dan robot akan menjadi segmen elektronik konsumen terbesar di dunia. Semua benda yang bisa bergerak akhirnya akan menjadi sepenuhnya otonom, didorong oleh AI fisik.
AI telah melewati tahap AI persepsi, AI generatif, dan AI agentic, dan kini memasuki era AI fisik, di mana kecerdasan masuk ke dunia nyata, model ini mampu memahami hukum fisika dan langsung menghasilkan tindakan dari persepsi dunia fisik.
Untuk mewujudkan tujuan ini, AI fisik harus belajar pengetahuan umum tentang dunia—keberadaan objek, gravitasi, gesekan. Penguasaan kemampuan ini akan bergantung pada tiga komputer: komputer pelatihan (DGX) untuk membangun model AI, komputer inferensi (robot/chip kendaraan) untuk eksekusi real-time, dan komputer simulasi (Omniverse) untuk menghasilkan data sintetik dan memverifikasi logika fisika.
Inti dari model ini adalah Cosmos foundational world model, yang menyelaraskan bahasa, gambar, 3D, dan hukum fisika, mendukung seluruh rantai pembuatan data pelatihan dari simulasi.
AI fisik akan muncul dalam tiga entitas: bangunan (seperti pabrik, gudang), robot, mobil otonom.
Huang Renxun berpendapat, mengemudi otomatis akan menjadi aplikasi besar pertama dari AI fisik. Sistem ini harus memahami dunia nyata, membuat keputusan, dan melakukan aksi, dengan persyaratan keamanan, simulasi, dan data yang sangat tinggi.
Untuk itu, Nvidia merilis Alpha-Mayo, sebuah ekosistem lengkap yang terdiri dari model open-source, alat simulasi, dan dataset AI fisik, untuk mempercepat pengembangan AI fisik berbasis inferensi yang aman.
Produk ini menyediakan modul dasar bagi produsen mobil, pemasok, startup, dan peneliti global untuk membangun sistem otomatisasi mengemudi level L4.
Alpha-Mayo adalah model pertama di industri yang benar-benar membuat mobil otonom “berpikir”, dan model ini sudah open-source. Model ini memecah masalah menjadi langkah-langkah, melakukan inferensi terhadap semua kemungkinan, dan memilih jalur paling aman.
Model inferensi-tindakan ini memungkinkan sistem mengemudi otomatis menyelesaikan skenario tepi yang kompleks yang sebelumnya tidak pernah dialami, seperti lampu lalu lintas yang rusak di persimpangan sibuk.
Alpha-Mayo memiliki 10 miliar parameter, cukup besar untuk menangani tugas mengemudi otomatis, tetapi juga cukup ringan untuk dijalankan di workstation yang dirancang untuk penelitian mengemudi otomatis.
Model ini dapat menerima input teks, kamera surround, status kendaraan historis, dan input navigasi, serta menghasilkan lintasan perjalanan dan proses inferensi, sehingga penumpang dapat memahami mengapa kendaraan mengambil tindakan tertentu.
Dalam trailer demo langsung, berkat Alpha-Mayo, mobil otonom dapat secara mandiri menghindari pejalan kaki, memprediksi kendaraan yang akan berbelok kiri, dan berpindah jalur tanpa intervensi.
Huang Renxun menyatakan bahwa Mercedes-Benz CLA yang dilengkapi Alpha-Mayo sudah diproduksi massal, dan baru saja dinilai sebagai mobil paling aman di dunia oleh NCAP. Setiap kode, chip, dan sistem telah melewati sertifikasi keamanan. Sistem ini akan diluncurkan di pasar AS, dan pada akhir tahun akan menghadirkan kemampuan mengemudi yang lebih canggih, termasuk mengemudi otomatis tanpa tangan di jalan tol, dan otomatisasi penuh di lingkungan perkotaan.
Nvidia juga merilis dataset sebagian untuk melatih Alpha-Mayo, serta kerangka simulasi evaluasi model inferensi open-source Alpha-Sim. Pengembang dapat melakukan fine-tuning Alpha-Mayo dengan data mereka sendiri, atau menggunakan Cosmos untuk menghasilkan data sintetik, dan melatih serta menguji aplikasi mengemudi otomatis berdasarkan kombinasi data nyata dan sintetik. Selain itu, Nvidia mengumumkan bahwa platform NVIDIA DRIVE kini sudah diproduksi.
Nvidia mengumumkan bahwa perusahaan robot terkemuka global seperti Boston Dynamics, Franka Robotics, robot bedah Surgical, LG Electronics, NEURA, XRLabs, dan Zhi Yuan Robotics semuanya berbasis NVIDIA Isaac dan GR00T.
Huang Renxun juga mengumumkan kemitraan terbaru dengan Siemens. Siemens mengintegrasikan CUDA-X Nvidia, model AI, dan Omniverse ke dalam rangkaian alat dan platform EDA, CAE, dan digital twin mereka. AI fisik akan digunakan secara luas dalam seluruh proses mulai dari desain, simulasi, hingga manufaktur dan operasi.
05. Penutup: Peluk sumber terbuka dengan tangan kiri, buat sistem perangkat keras yang tak tergantikan dengan tangan kanan
Seiring fokus infrastruktur AI beralih dari pelatihan ke inferensi skala besar, kompetisi platform bertransformasi dari kekuatan titik tunggal menjadi rekayasa sistem mencakup chip, rak, jaringan, dan perangkat lunak, dengan tujuan menurunkan TCO dan memberikan throughput inferensi terbesar, AI memasuki tahap baru “operasi pabrik”.
Nvidia sangat memperhatikan desain tingkat sistem, Rubin secara bersamaan meningkatkan performa dan efisiensi ekonomi dalam pelatihan dan inferensi, dan dapat berfungsi sebagai pengganti plug-and-play Blackwell, memungkinkan transisi mulus dari Blackwell.
Dalam hal posisi platform, Nvidia tetap menganggap pelatihan sangat penting, karena hanya dengan melatih model paling canggih secara cepat, platform inferensi dapat benar-benar mendapatkan manfaat, sehingga NVFP4 pelatihan diperkenalkan ke dalam GPU Rubin untuk meningkatkan performa dan menurunkan TCO lebih jauh.
Selain itu, raksasa komputasi AI ini terus memperkuat kemampuan komunikasi jaringan secara vertikal dan horizontal, dan memandang konteks sebagai bottleneck utama, mengintegrasikan desain kolaboratif antara penyimpanan, jaringan, dan komputasi.
Nvidia terus membuka sumber secara besar-besaran, dan di sisi lain, semakin membuat perangkat keras, interkoneksi, dan desain sistem menjadi “tak tergantikan”. Strategi berkelanjutan ini, yang memperbesar permintaan, mendorong konsumsi token, memperluas skala inferensi, dan menyediakan infrastruktur berkinerja tinggi, sedang membangun benteng yang semakin kokoh bagi Nvidia.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Huang Renxun dalam 1.5 jam mengumumkan 8 produk baru, Nvidia secara penuh bertaruh pada AI inferensi dan Fisika AI
Penulis | ZeR0 Junda, Zhì Dōngxī
Editor | Mò Yǐng
Berita dari Las Vegas, 5 Januari, baru saja, pendiri dan CEO Nvidia Huang Renxun menyampaikan pidato utama pertama tahun 2026 di International Consumer Electronics Show CES 2026. Huang Renxun seperti biasa mengenakan jaket kulit, dalam 1,5 jam mengumumkan 8 pengumuman penting secara berurutan, mulai dari chip, rak, hingga desain jaringan, dengan pengenalan mendalam tentang seluruh platform generasi baru.
Di bidang komputasi percepatan dan infrastruktur AI, Nvidia merilis komputer super NVIDIA Vera Rubin POD AI, perangkat optik terintegrasi Ethernet NVIDIA Spectrum-X, platform penyimpanan memori inferensi NVIDIA, dan NVIDIA DGX SuperPOD berbasis DGX Vera Rubin NVL72.
NVIDIA Vera Rubin POD menggunakan 6 chip buatan Nvidia sendiri, mencakup CPU, GPU, Scale-up, Scale-out, penyimpanan, dan kemampuan pemrosesan, semua bagian dirancang secara kolaboratif, memenuhi kebutuhan model canggih dan menurunkan biaya komputasi.
Di antaranya, Vera CPU menggunakan arsitektur inti Olympus yang dikustomisasi, Rubin GPU memperkenalkan mesin Transformer dengan performa inferensi NBFP4 hingga 50PFLOPS, bandwidth NVLink setiap GPU mencapai 3,6TB/s, mendukung komputasi rahasia umum generasi ketiga (TEE tingkat rak pertama), mewujudkan lingkungan eksekusi yang lengkap dan terpercaya lintas domain CPU dan GPU.
Chip-chip ini telah kembali ke wafer, Nvidia telah melakukan verifikasi seluruh sistem NVIDIA Vera Rubin NVL72, mitra juga telah mulai menjalankan model dan algoritma AI internal mereka, seluruh ekosistem sedang mempersiapkan deployment Vera Rubin.
Dalam pengumuman lainnya, perangkat optik Ethernet NVIDIA Spectrum-X secara signifikan meningkatkan efisiensi daya dan waktu operasional aplikasi; platform penyimpanan memori inferensi NVIDIA mendefinisikan ulang tumpukan penyimpanan untuk mengurangi penghitungan ulang dan meningkatkan efisiensi inferensi; DGX SuperPOD berbasis DGX Vera Rubin NVL72 menurunkan biaya token model MoE besar hingga 1/10.
Dalam hal model terbuka, Nvidia mengumumkan perluasan keluarga model sumber terbuka, merilis model, dataset, dan pustaka baru, termasuk seri model open-source NVIDIA Nemotron yang menambahkan model Agentic RAG, model keamanan, model suara, serta model terbuka baru yang cocok untuk semua jenis robot. Namun, Huang Renxun tidak menjelaskan secara rinci dalam pidatonya.
Dalam bidang AI fisik, Waktunya ChatGPT fisik telah tiba, teknologi lengkap Nvidia memungkinkan ekosistem global mengubah industri melalui robot berbasis AI; perpustakaan alat AI Nvidia yang luas, termasuk rangkaian model open-source Alpamayo yang baru, memungkinkan industri transportasi global dengan cepat mewujudkan L4 mengemudi yang aman; platform pengemudian otomatis NVIDIA DRIVE kini sudah diproduksi, dipasang di semua Mercedes-Benz CLA terbaru, untuk mengemudi AI L2++.
01. Komputer super AI baru: 6 chip buatan sendiri, daya komputasi satu rak mencapai 3.6EFLOPS
Huang Renxun berpendapat, setiap 10 hingga 15 tahun, industri komputer akan mengalami transformasi besar, tetapi kali ini, dua perubahan platform terjadi bersamaan, dari CPU ke GPU, dari “perangkat lunak pemrograman” ke “perangkat lunak pelatihan”, percepatan komputasi dan AI merekonstruksi seluruh tumpukan komputasi. Industri komputasi senilai 10 triliun dolar dalam dekade terakhir sedang menjalani modernisasi.
Sementara itu, permintaan terhadap daya komputasi melonjak tajam. Ukuran model tumbuh 10 kali lipat setiap tahun, jumlah token yang digunakan untuk berpikir meningkat 5 kali lipat setiap tahun, dan harga per token menurun 10 kali lipat setiap tahun.
Untuk mengatasi kebutuhan ini, Nvidia memutuskan untuk merilis hardware komputasi baru setiap tahun. Huang Renxun mengungkapkan, saat ini Vera Rubin juga sudah mulai diproduksi secara penuh.
Komputer super AI terbaru Nvidia, NVIDIA Vera Rubin POD, menggunakan 6 chip buatan sendiri: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 (CX9) smart NIC, BlueField-4 DPU, Spectrum-X 102.4T CPO.
Vera CPU: dirancang untuk perpindahan data dan pemrosesan agen cerdas, memiliki 88 inti Olympus buatan Nvidia, 176 thread multi-threading Nvidia, NVLink-C2C 1.8TB/s mendukung memori terpadu CPU:GPU, memori sistem mencapai 1,5TB (3 kali lipat dari Grace CPU), bandwidth memori LPDDR5X SOCAMM sebesar 1,2TB/s, dan mendukung komputasi rahasia tingkat rak, performa pemrosesan data meningkat dua kali lipat.
Rubin GPU: memperkenalkan mesin Transformer, performa inferensi NVFP4 mencapai 50PFLOPS, 5 kali lipat dari GPU Blackwell, kompatibel ke belakang, meningkatkan performa BF16/FP4 sambil menjaga akurasi inferensi; performa pelatihan NVFP4 mencapai 35PFLOPS, 3,5 kali lipat dari Blackwell.
Rubin juga merupakan platform pertama yang mendukung HBM4, dengan bandwidth HBM4 mencapai 22TB/s, 2,8 kali lipat dari generasi sebelumnya, mampu memenuhi kebutuhan performa model MoE yang ketat dan beban kerja AI.
NVLink 6 Switch: kecepatan jalur tunggal meningkat menjadi 400Gbps, menggunakan teknologi SerDes untuk transmisi sinyal berkecepatan tinggi; setiap GPU dapat mencapai bandwidth komunikasi interkoneksi 3,6TB/s, dua kali lipat dari generasi sebelumnya, total bandwidth mencapai 28,8TB/s, performa in-network compute dengan presisi FP8 mencapai 14,4TFLOPS, mendukung pendinginan cairan 100%.
NVIDIA ConnectX-9 SuperNIC: menyediakan bandwidth 1,6Tb/s per GPU, dioptimalkan untuk AI skala besar, memiliki jalur data yang sepenuhnya didefinisikan perangkat lunak, dapat diprogram, dan mempercepat.
NVIDIA BlueField-4: DPU 800Gbps, digunakan untuk smart NIC dan prosesor penyimpanan, dilengkapi CPU Grace 64-core, dikombinasikan dengan ConnectX-9 SuperNIC, untuk mengurangi beban komputasi terkait jaringan dan penyimpanan, sekaligus meningkatkan keamanan jaringan, performa komputasi 6 kali lipat dari generasi sebelumnya, bandwidth memori 3 kali lipat, kecepatan akses data dari GPU ke penyimpanan meningkat 2 kali.
NVIDIA Vera Rubin NVL72: mengintegrasikan semua komponen di atas ke dalam sistem pengolahan rak tunggal, memiliki 2 triliun transistor, performa inferensi NVFP4 mencapai 3,6EFLOPS, performa pelatihan NVFP4 mencapai 2,5EFLOPS.
Memori LPDDR5X sistem mencapai 54TB, 2,5 kali lipat dari generasi sebelumnya; total memori HBM4 mencapai 20,7TB, 1,5 kali lipat; bandwidth HBM4 mencapai 1,6PB/s, 2,8 kali lipat dari generasi sebelumnya; total bandwidth vertikal mencapai 260TB/s, melebihi kapasitas bandwidth internet global.
Sistem ini berbasis desain rak MGX generasi ketiga, tray komputasi menggunakan desain modular, tanpa host, tanpa kabel, tanpa kipas, mempercepat pemasangan dan pemeliharaan 18 kali lipat dibanding GB200. Sebelumnya, pemasangan membutuhkan 2 jam, sekarang hanya sekitar 5 menit, dan sebelumnya sekitar 80% pendinginan cair, kini 100% menggunakan cairan pendingin. Berat sistem tunggal mencapai 2 ton, dengan tambahan cairan pendingin bisa mencapai 2,5 ton.
Tray NVLink Switch mampu melakukan pemeliharaan tanpa henti dan toleransi kesalahan, saat tray dilepas atau sebagian terpasang, rak tetap dapat berjalan. Mesin RAS generasi kedua dapat melakukan pemeriksaan kondisi tanpa henti.
Fitur-fitur ini meningkatkan waktu operasional dan throughput sistem, secara lebih lanjut menurunkan biaya pelatihan dan inferensi, memenuhi kebutuhan pusat data akan keandalan tinggi dan kemudahan perawatan.
Lebih dari 80 mitra MGX telah siap mendukung deployment Rubin NVL72 dalam jaringan skala besar.
02. Tiga produk baru meningkatkan efisiensi inferensi AI secara besar-besaran: perangkat CPO baru, lapisan penyimpanan konteks baru, DGX SuperPOD berbasis Vera Rubin NVL72
Selain itu, Nvidia merilis 3 produk penting: perangkat optik Ethernet NVIDIA Spectrum-X, platform penyimpanan memori inferensi NVIDIA, dan DGX SuperPOD berbasis Vera Rubin NVL72.
1. NVIDIA Spectrum-X perangkat optik Ethernet terintegrasi
Perangkat optik Ethernet NVIDIA Spectrum-X berbasis arsitektur Spectrum-X, menggunakan 2 chip, dengan teknologi SerDes 200Gbps, setiap ASIC mampu menyediakan bandwidth 102,4Tb/s.
Platform switch ini mencakup sistem berkapasitas tinggi 512 port dan sistem kompak 128 port, masing-masing port berkecepatan 800Gb/s.
Sistem switch CPO (co-packaged optical) ini mampu meningkatkan efisiensi energi 5 kali, keandalan 10 kali, dan waktu operasional aplikasi 5 kali lipat.
Ini berarti dapat memproses lebih banyak token setiap hari, sehingga menurunkan total biaya kepemilikan (TCO) pusat data secara signifikan.
2. Platform penyimpanan memori inferensi NVIDIA
Platform penyimpanan memori inferensi NVIDIA adalah infrastruktur penyimpanan AI asli POD-level untuk menyimpan KV Cache, berbasis BlueField-4 dan Spectrum-X Ethernet, terintegrasi erat dengan NVIDIA Dynamo dan NVLink, mewujudkan koordinasi konteks antara memori, penyimpanan, dan jaringan.
Platform ini memperlakukan konteks sebagai tipe data utama, mampu meningkatkan performa inferensi 5 kali lipat dan efisiensi energi 5 kali lipat.
Ini sangat penting untuk memperbaiki aplikasi konteks panjang seperti dialog multi-putar, RAG, dan inferensi multi-langkah Agentic, yang sangat bergantung pada kemampuan menyimpan, menggunakan kembali, dan berbagi konteks secara efisien di seluruh sistem.
AI sedang berkembang dari chatbot menjadi Agentic AI (agent cerdas), yang mampu melakukan inferensi, memanggil alat, dan memelihara status jangka panjang, dengan jendela konteks yang telah diperluas hingga jutaan token. Konteks ini disimpan dalam KV Cache, dan setiap langkah penghitungan ulang akan memboroskan waktu GPU dan menyebabkan latensi besar, sehingga perlu disimpan.
Namun, memori GPU yang cepat sangat langka, dan penyimpanan jaringan tradisional terlalu tidak efisien untuk konteks jangka pendek. Bottleneck inferensi AI beralih dari komputasi ke penyimpanan konteks. Oleh karena itu, diperlukan lapisan memori baru yang dioptimalkan untuk inferensi, yang berada di antara GPU dan penyimpanan.
Lapisan ini bukan sekadar patch pasca, tetapi harus dirancang secara kolaboratif dengan penyimpanan jaringan, untuk memindahkan data konteks dengan biaya paling rendah.
Sebagai lapisan penyimpanan baru, platform penyimpanan memori inferensi NVIDIA tidak langsung berada di sistem host, melainkan terhubung ke perangkat komputasi melalui BlueField-4. Keunggulan utamanya adalah mampu memperluas skala pool penyimpanan secara lebih efisien, menghindari penghitungan ulang KV Cache.
Nvidia sedang bekerja sama erat dengan mitra penyimpanan untuk memperkenalkan platform penyimpanan memori inferensi NVIDIA ke dalam platform Rubin, memungkinkan pelanggan menggunakannya sebagai bagian dari infrastruktur AI lengkap yang terintegrasi.
3. DGX SuperPOD berbasis Vera Rubin yang dibangun
Secara sistem, NVIDIA DGX SuperPOD sebagai blueprint deployment pabrik AI skala besar, menggunakan 8 sistem DGX Vera Rubin NVL72, dengan jaringan vertikal NVLink 6 dan jaringan horizontal Spectrum-X Ethernet, dilengkapi platform penyimpanan memori inferensi NVIDIA, dan telah melalui verifikasi rekayasa.
Seluruh sistem dikelola oleh perangkat lunak NVIDIA Mission Control, mencapai efisiensi maksimal. Pelanggan dapat menggunakannya sebagai platform siap pakai untuk menyelesaikan pelatihan dan inferensi dengan lebih sedikit GPU.
Karena kolaborasi optimal di tingkat 6 chip, tray, rak, pod, pusat data, dan perangkat lunak, platform Rubin secara signifikan menurunkan biaya pelatihan dan inferensi. Dibandingkan generasi Blackwell, pelatihan model MoE skala sama hanya membutuhkan seperempat jumlah GPU; dengan latensi yang sama, biaya token model MoE besar turun hingga 1/10.
NVIDIA DGX SuperPOD dengan sistem DGX Rubin NVL8 juga diluncurkan bersamaan.
Dengan arsitektur Vera Rubin, Nvidia bersama mitra dan pelanggan membangun sistem AI terbesar, tercanggih, dan termurah di dunia, mempercepat adopsi AI secara massal.
Infrastruktur Rubin akan tersedia melalui CSP dan integrator sistem pada paruh kedua tahun ini, dengan Microsoft dan lainnya menjadi pengguna awal.
03. Ekspansi lagi dunia model terbuka: kontributor penting model baru, data, dan ekosistem open-source
Di tingkat perangkat lunak dan model, Nvidia terus meningkatkan investasi open-source.
Platform pengembang utama seperti OpenRouter menunjukkan bahwa selama setahun terakhir, penggunaan model AI meningkat 20 kali lipat, sekitar seperempat token berasal dari model open-source.
Pada tahun 2025, Nvidia adalah kontributor terbesar model, data, dan resep open-source di Hugging Face, merilis 650 model open-source dan 250 dataset open-source.
Model open-source Nvidia menduduki peringkat teratas di berbagai daftar peringkat. Pengembang tidak hanya dapat menggunakan model-model ini, tetapi juga belajar dari mereka, melakukan pelatihan berkelanjutan, memperluas dataset, dan membangun sistem AI menggunakan alat open-source dan dokumentasi.
Terinspirasi oleh Perplexity, Huang Renxun mengamati bahwa Agents harus merupakan multi-model, multi-cloud, dan hybrid cloud, yang juga merupakan arsitektur dasar sistem Agentic AI, yang hampir semua startup mengadopsinya.
Dengan bantuan model dan alat open-source Nvidia, pengembang kini dapat menyesuaikan sistem AI mereka sendiri, dan menggunakan kemampuan model paling mutakhir. Saat ini, Nvidia telah mengintegrasikan kerangka kerja tersebut ke dalam “blueprint”, dan mengintegrasikannya ke platform SaaS. Pengguna dapat melakukan deployment cepat dengan blueprint ini.
Dalam demonstrasi langsung, sistem ini dapat secara otomatis menentukan apakah tugas harus diproses oleh model privat lokal atau model cloud terdepan, serta dapat memanggil alat eksternal (seperti API email, antarmuka kontrol robot, layanan kalender, dll), dan melakukan fusi multimodal, memproses teks, suara, gambar, dan sinyal sensor robot secara terpadu.
Kemampuan kompleks ini sebelumnya tidak terbayangkan, tetapi sekarang menjadi sangat sederhana. Di platform perusahaan seperti ServiceNow, Snowflake, kemampuan serupa sudah dapat digunakan.
04. Model Alpha-Mayo open-source, membuat mobil otonom “berpikir”
Nvidia percaya bahwa AI fisik dan robot akan menjadi segmen elektronik konsumen terbesar di dunia. Semua benda yang bisa bergerak akhirnya akan menjadi sepenuhnya otonom, didorong oleh AI fisik.
AI telah melewati tahap AI persepsi, AI generatif, dan AI agentic, dan kini memasuki era AI fisik, di mana kecerdasan masuk ke dunia nyata, model ini mampu memahami hukum fisika dan langsung menghasilkan tindakan dari persepsi dunia fisik.
Untuk mewujudkan tujuan ini, AI fisik harus belajar pengetahuan umum tentang dunia—keberadaan objek, gravitasi, gesekan. Penguasaan kemampuan ini akan bergantung pada tiga komputer: komputer pelatihan (DGX) untuk membangun model AI, komputer inferensi (robot/chip kendaraan) untuk eksekusi real-time, dan komputer simulasi (Omniverse) untuk menghasilkan data sintetik dan memverifikasi logika fisika.
Inti dari model ini adalah Cosmos foundational world model, yang menyelaraskan bahasa, gambar, 3D, dan hukum fisika, mendukung seluruh rantai pembuatan data pelatihan dari simulasi.
AI fisik akan muncul dalam tiga entitas: bangunan (seperti pabrik, gudang), robot, mobil otonom.
Huang Renxun berpendapat, mengemudi otomatis akan menjadi aplikasi besar pertama dari AI fisik. Sistem ini harus memahami dunia nyata, membuat keputusan, dan melakukan aksi, dengan persyaratan keamanan, simulasi, dan data yang sangat tinggi.
Untuk itu, Nvidia merilis Alpha-Mayo, sebuah ekosistem lengkap yang terdiri dari model open-source, alat simulasi, dan dataset AI fisik, untuk mempercepat pengembangan AI fisik berbasis inferensi yang aman.
Produk ini menyediakan modul dasar bagi produsen mobil, pemasok, startup, dan peneliti global untuk membangun sistem otomatisasi mengemudi level L4.
Alpha-Mayo adalah model pertama di industri yang benar-benar membuat mobil otonom “berpikir”, dan model ini sudah open-source. Model ini memecah masalah menjadi langkah-langkah, melakukan inferensi terhadap semua kemungkinan, dan memilih jalur paling aman.
Model inferensi-tindakan ini memungkinkan sistem mengemudi otomatis menyelesaikan skenario tepi yang kompleks yang sebelumnya tidak pernah dialami, seperti lampu lalu lintas yang rusak di persimpangan sibuk.
Alpha-Mayo memiliki 10 miliar parameter, cukup besar untuk menangani tugas mengemudi otomatis, tetapi juga cukup ringan untuk dijalankan di workstation yang dirancang untuk penelitian mengemudi otomatis.
Model ini dapat menerima input teks, kamera surround, status kendaraan historis, dan input navigasi, serta menghasilkan lintasan perjalanan dan proses inferensi, sehingga penumpang dapat memahami mengapa kendaraan mengambil tindakan tertentu.
Dalam trailer demo langsung, berkat Alpha-Mayo, mobil otonom dapat secara mandiri menghindari pejalan kaki, memprediksi kendaraan yang akan berbelok kiri, dan berpindah jalur tanpa intervensi.
Huang Renxun menyatakan bahwa Mercedes-Benz CLA yang dilengkapi Alpha-Mayo sudah diproduksi massal, dan baru saja dinilai sebagai mobil paling aman di dunia oleh NCAP. Setiap kode, chip, dan sistem telah melewati sertifikasi keamanan. Sistem ini akan diluncurkan di pasar AS, dan pada akhir tahun akan menghadirkan kemampuan mengemudi yang lebih canggih, termasuk mengemudi otomatis tanpa tangan di jalan tol, dan otomatisasi penuh di lingkungan perkotaan.
Nvidia juga merilis dataset sebagian untuk melatih Alpha-Mayo, serta kerangka simulasi evaluasi model inferensi open-source Alpha-Sim. Pengembang dapat melakukan fine-tuning Alpha-Mayo dengan data mereka sendiri, atau menggunakan Cosmos untuk menghasilkan data sintetik, dan melatih serta menguji aplikasi mengemudi otomatis berdasarkan kombinasi data nyata dan sintetik. Selain itu, Nvidia mengumumkan bahwa platform NVIDIA DRIVE kini sudah diproduksi.
Nvidia mengumumkan bahwa perusahaan robot terkemuka global seperti Boston Dynamics, Franka Robotics, robot bedah Surgical, LG Electronics, NEURA, XRLabs, dan Zhi Yuan Robotics semuanya berbasis NVIDIA Isaac dan GR00T.
Huang Renxun juga mengumumkan kemitraan terbaru dengan Siemens. Siemens mengintegrasikan CUDA-X Nvidia, model AI, dan Omniverse ke dalam rangkaian alat dan platform EDA, CAE, dan digital twin mereka. AI fisik akan digunakan secara luas dalam seluruh proses mulai dari desain, simulasi, hingga manufaktur dan operasi.
05. Penutup: Peluk sumber terbuka dengan tangan kiri, buat sistem perangkat keras yang tak tergantikan dengan tangan kanan
Seiring fokus infrastruktur AI beralih dari pelatihan ke inferensi skala besar, kompetisi platform bertransformasi dari kekuatan titik tunggal menjadi rekayasa sistem mencakup chip, rak, jaringan, dan perangkat lunak, dengan tujuan menurunkan TCO dan memberikan throughput inferensi terbesar, AI memasuki tahap baru “operasi pabrik”.
Nvidia sangat memperhatikan desain tingkat sistem, Rubin secara bersamaan meningkatkan performa dan efisiensi ekonomi dalam pelatihan dan inferensi, dan dapat berfungsi sebagai pengganti plug-and-play Blackwell, memungkinkan transisi mulus dari Blackwell.
Dalam hal posisi platform, Nvidia tetap menganggap pelatihan sangat penting, karena hanya dengan melatih model paling canggih secara cepat, platform inferensi dapat benar-benar mendapatkan manfaat, sehingga NVFP4 pelatihan diperkenalkan ke dalam GPU Rubin untuk meningkatkan performa dan menurunkan TCO lebih jauh.
Selain itu, raksasa komputasi AI ini terus memperkuat kemampuan komunikasi jaringan secara vertikal dan horizontal, dan memandang konteks sebagai bottleneck utama, mengintegrasikan desain kolaboratif antara penyimpanan, jaringan, dan komputasi.
Nvidia terus membuka sumber secara besar-besaran, dan di sisi lain, semakin membuat perangkat keras, interkoneksi, dan desain sistem menjadi “tak tergantikan”. Strategi berkelanjutan ini, yang memperbesar permintaan, mendorong konsumsi token, memperluas skala inferensi, dan menyediakan infrastruktur berkinerja tinggi, sedang membangun benteng yang semakin kokoh bagi Nvidia.