2026年CES展期間、輝達 (NVIDIA) 執行長黃仁勳は、ラスベガスで開催された「NVIDIA Live」基調講演において、稀に見るほどほとんどGeForceグラフィックスカード製品ラインには触れず、データセンター、自動運転車、ロボット、オープンモデルに全面的に焦点を当てました。
今回の講演で黄仁勳は、NVIDIAとメルセデス・ベンツの協力により、最初のAI自動運転車が正式に量産開始されたことを発表しました。NCAP認証を取得し、最も安全と評価されたメルセデス・ベンツCLAには、輝達の車載モデルAlpamayoが搭載されています。米国市場ではQ1に発売予定、Q2にヨーロッパへ進出し、最速で今年のQ3にアジアに登場する見込みです。
待望のVera Rubinも全面的に量産に投入されました。これは、輝達のBlackwell後のフラッグシップ製品であり、単一のチップではなく、次世代AIプラットフォームの名称です。単一のRubin Podは16台のキャビネット、合計1,152個のGPUで構成され、各キャビネットには72個のRubinが搭載されており、各Rubinは実際には2つのGPUチップを統合したものです。Grace CPUやBlackwell GPUと比較して、新世代のVera CPUはシングルスレッド性能、メモリ容量、全体的な演算指標で顕著な向上を示しています。
同じく登場したのは、データセンター向けに設計された新世代のプロセッサBlueField-4であり、大規模なデータセンターを複数の独立したブロックに分割し、異なるユーザーが同時に運用できるようにします。また、新世代のAIデータセンターのネットワークコア、Spectrum-X Ethernet Co-Packaged Optics(CPO)スイッチングプラットフォームの背後にある重要技術は、台湾積体電路製造(TSMC)とNVIDIAが共同開発した全く新しいCOOP(統合シリコンフォトニクス)プロセスから来ています。
モデルの側面では、黄仁勳はオープン性がAIエコシステムの鍵であると強調しました。NVIDIAは現在、Clara(医療)、Earth-2(気候)、Nemotron(推論とマルチモーダル)、Cosmos(ロボットとシミュレーション)、GR00T(具現化知能)、および自動運転車モデルAlpamayoを含む6つの主要分野で完全にオープンなモデルセットを展開しています。
NVIDIAの最初のAI自動運転車はQ1に上市
2026年CESで、黄仁勳はまずAlpamayoに言及し、これは世界初の推論能力を備えたオープンビジョン・言語・行動(VLA)モデルと位置付けられています。Alpamayoはエンドツーエンドの訓練を採用し、センサー入力から直接ステアリング、ブレーキ、アクセル出力に連結されます。訓練データは、多数の人間の実際の運転デモ、Cosmosによる合成データ、そして数十万の詳細なラベル付けサンプルを組み合わせています。従来のシステムと異なり、Alpamayoは動作を行うだけでなく、その動作の理由もリアルタイムで解釈できます。
黄仁勳は、NVIDIAの最初の自動運転車は今年の第一四半期に走行開始すると発表しました。Q1に米国で発売、Q2にヨーロッパへ、最速でQ3〜Q4にアジアに登場する見込みです。
構造上、モデル層はAlpamayoであり、アプリケーション層はメルセデス・ベンツCLAです。このメルセデス・ベンツCLAは、認証を取得し、正式に量産されています。また、NCAP評価も取得し、世界で最も安全な車と評価されました。この自動運転車は、推論能力を持つAI自動運転システムと、完全に追跡可能でルール志向の従来型自動運転システムの2つのモードを備えています。内蔵された安全ポリシーと評価モジュールは、AIが制御を引き継ぐか、保守的な従来システムに切り戻すかをリアルタイムで判断します。
黄仁勳は、Vera Rubinが全面的に量産に入ったことを発表し、その仕様を詳細に解説しました。
講演の中心の一つは、NVIDIAが正式にRubinプラットフォームの全面量産を発表したことです。RubinはBlackwellの後継世代と位置付けられ、NVIDIAが初めて極めて共同設計(co-design)の思想で構築した6チップAIプラットフォームであり、データセンターから出発し、演算、ネットワーク、ストレージ、ソフトウェアスタックを統合しています。
Vera Rubinは、NVIDIAエコシステム内では単一のチップではなく、次世代AIプラットフォームの名称です。コアはVera CPUとRubin GPUをNVLink‑C2Cで接続し、Vera Rubin超級チップにします。さらに、Vera Rubin NVL72ラック規模のAIスーパーコンピュータに積み上げ、エージェントAI、長いコンテキスト推論、AI工場のワークロードを実行します。
単一のRubin Podは16台のキャビネット、合計1,152個のGPUで構成され、各キャビネットには72個のRubinが搭載され、各Rubinは実際には2つのGPUチップを統合したものです。対応するVera CPUは、スーパーコンピュータ向けに設計されており、電力制限のある状況下で、現行のトップクラスのCPUの2倍の性能と高いデータ伝送速度を実現しています。
従来のGrace CPUやBlackwell GPUと比較して、新世代のVera CPUはシングルスレッド性能、メモリ容量、全体的な演算指標で顕著な向上を示し、Rubin GPUと直結したことで、巨大な戦艦のようなAI演算コアを形成しています。
Rubinプラットフォームのコアには、Rubin GPU、Vera CPU、NVLink 6、Spectrum-X光イーサネット、ConnectX-9 SuperNIC、BlueField-4 DPUが含まれます。特に、Rubin GPUはNVFP4精度で、推論性能が50ペタフロップスに達します。黄仁勳は、全体のキャビネットとネットワークの一体化設計により、Rubinの目標はすべてのボトルネックを排除し、各AIトークンの総所有コスト(TCO)を従来の約10分の1に抑えることだと述べました。
新世代データセンター用プロセッサBlueField-4
ハードウェア面では、NVIDIAはVera CPUとBlueField-4の実際の展開詳細も初めて公開しました。Vera CPUは電力制限のあるシナリオを設計の中心とし、単位ワットあたりの性能は現行のトップクラスCPUの2倍に達し、シングルスレッド性能とメモリ容量も大幅に向上しています。これはAIスーパーコンピュータとデータセンター向けに設計されたものです。
黄仁勳はさらに、NVIDIAの新しいデータセンター用プロセッサBlueField-4について紹介し、大規模なデータセンターを複数の独立したブロックに分割し、異なるユーザーが同時に運用できるようにし、仮想化、セキュリティ、南北向きのネットワークトラフィック管理など多くの作業をCPUにオフロードして、各演算ノードの標準装備とすることを発表しました。また、NVIDIAは業界標準のシステムアーキテクチャの推進も表明し、エコシステムとサプライチェーン全体で同じコンポーネントを共有します。
一つのMGXシステムは約8万個の部品で構成されているため、仕様変更を毎年行うと大きな浪費を招くことから、鴻海、広達、緯創、HP、Dell、Lenovoなど主要なシステムメーカーは、既存の製造体制の下で新プラットフォームを直接導入できるとしています。
なお、Vera Rubinの総消費電力は前世代のGrace Blackwellの2倍ですが、吸気流はほぼ同じで、冷却水温度は45°Cに維持されており、データセンターでは冷水機を設置せずに熱水冷却を行うことと同等です。
データセンターCPO交換プラットフォーム、重要技術は台湾積体電路製造のCOOPプロセスから
新世代AIデータセンターのネットワークコア、Spectrum-X Ethernet Co-Packaged Optics(CPO)スイッチングプラットフォームの重要技術は、台湾積体電路製造(TSMC)とNVIDIAが共同開発したCOOP(Co-Optimized Optics Packaging、統合シリコンフォトニクス)プロセスから来ています。
このプロセスは、シリコンフォトニクス光学素子をスイッチングチップのパッケージコアに直接統合し、従来の外付け光モジュールを排除します。これにより、単一のスイッチングチップで最大102.4Tb/sの横方向拡張帯域幅をサポートし、最大512ポート、各ポート200Gb/sの高速接続能力を提供します。
この記事は、黄仁勳のCES2026における定調:Vera Rubinの全面量産、AI自動運転車Q1上市、重要製造プロセスは台湾積体電路製造から最も早く登場したことについて、ABMediaの鏈新聞に掲載されました。
26.21K 人気度
50.49K 人気度
16.79K 人気度
11.76K 人気度
39.39K 人気度
黄仁勋 CES で2026年の方向性を発表:Vera Rubinの全面量産、AI自動運転車のQ1発売、重要な製造工程はTSMCから
2026年CES展期間、輝達 (NVIDIA) 執行長黃仁勳は、ラスベガスで開催された「NVIDIA Live」基調講演において、稀に見るほどほとんどGeForceグラフィックスカード製品ラインには触れず、データセンター、自動運転車、ロボット、オープンモデルに全面的に焦点を当てました。
今回の講演で黄仁勳は、NVIDIAとメルセデス・ベンツの協力により、最初のAI自動運転車が正式に量産開始されたことを発表しました。NCAP認証を取得し、最も安全と評価されたメルセデス・ベンツCLAには、輝達の車載モデルAlpamayoが搭載されています。米国市場ではQ1に発売予定、Q2にヨーロッパへ進出し、最速で今年のQ3にアジアに登場する見込みです。
待望のVera Rubinも全面的に量産に投入されました。これは、輝達のBlackwell後のフラッグシップ製品であり、単一のチップではなく、次世代AIプラットフォームの名称です。単一のRubin Podは16台のキャビネット、合計1,152個のGPUで構成され、各キャビネットには72個のRubinが搭載されており、各Rubinは実際には2つのGPUチップを統合したものです。Grace CPUやBlackwell GPUと比較して、新世代のVera CPUはシングルスレッド性能、メモリ容量、全体的な演算指標で顕著な向上を示しています。
同じく登場したのは、データセンター向けに設計された新世代のプロセッサBlueField-4であり、大規模なデータセンターを複数の独立したブロックに分割し、異なるユーザーが同時に運用できるようにします。また、新世代のAIデータセンターのネットワークコア、Spectrum-X Ethernet Co-Packaged Optics(CPO)スイッチングプラットフォームの背後にある重要技術は、台湾積体電路製造(TSMC)とNVIDIAが共同開発した全く新しいCOOP(統合シリコンフォトニクス)プロセスから来ています。
モデルの側面では、黄仁勳はオープン性がAIエコシステムの鍵であると強調しました。NVIDIAは現在、Clara(医療)、Earth-2(気候)、Nemotron(推論とマルチモーダル)、Cosmos(ロボットとシミュレーション)、GR00T(具現化知能)、および自動運転車モデルAlpamayoを含む6つの主要分野で完全にオープンなモデルセットを展開しています。
NVIDIAの最初のAI自動運転車はQ1に上市
2026年CESで、黄仁勳はまずAlpamayoに言及し、これは世界初の推論能力を備えたオープンビジョン・言語・行動(VLA)モデルと位置付けられています。Alpamayoはエンドツーエンドの訓練を採用し、センサー入力から直接ステアリング、ブレーキ、アクセル出力に連結されます。訓練データは、多数の人間の実際の運転デモ、Cosmosによる合成データ、そして数十万の詳細なラベル付けサンプルを組み合わせています。従来のシステムと異なり、Alpamayoは動作を行うだけでなく、その動作の理由もリアルタイムで解釈できます。
黄仁勳は、NVIDIAの最初の自動運転車は今年の第一四半期に走行開始すると発表しました。Q1に米国で発売、Q2にヨーロッパへ、最速でQ3〜Q4にアジアに登場する見込みです。
構造上、モデル層はAlpamayoであり、アプリケーション層はメルセデス・ベンツCLAです。このメルセデス・ベンツCLAは、認証を取得し、正式に量産されています。また、NCAP評価も取得し、世界で最も安全な車と評価されました。この自動運転車は、推論能力を持つAI自動運転システムと、完全に追跡可能でルール志向の従来型自動運転システムの2つのモードを備えています。内蔵された安全ポリシーと評価モジュールは、AIが制御を引き継ぐか、保守的な従来システムに切り戻すかをリアルタイムで判断します。
黄仁勳は、Vera Rubinが全面的に量産に入ったことを発表し、その仕様を詳細に解説しました。
講演の中心の一つは、NVIDIAが正式にRubinプラットフォームの全面量産を発表したことです。RubinはBlackwellの後継世代と位置付けられ、NVIDIAが初めて極めて共同設計(co-design)の思想で構築した6チップAIプラットフォームであり、データセンターから出発し、演算、ネットワーク、ストレージ、ソフトウェアスタックを統合しています。
Vera Rubinは、NVIDIAエコシステム内では単一のチップではなく、次世代AIプラットフォームの名称です。コアはVera CPUとRubin GPUをNVLink‑C2Cで接続し、Vera Rubin超級チップにします。さらに、Vera Rubin NVL72ラック規模のAIスーパーコンピュータに積み上げ、エージェントAI、長いコンテキスト推論、AI工場のワークロードを実行します。
単一のRubin Podは16台のキャビネット、合計1,152個のGPUで構成され、各キャビネットには72個のRubinが搭載され、各Rubinは実際には2つのGPUチップを統合したものです。対応するVera CPUは、スーパーコンピュータ向けに設計されており、電力制限のある状況下で、現行のトップクラスのCPUの2倍の性能と高いデータ伝送速度を実現しています。
従来のGrace CPUやBlackwell GPUと比較して、新世代のVera CPUはシングルスレッド性能、メモリ容量、全体的な演算指標で顕著な向上を示し、Rubin GPUと直結したことで、巨大な戦艦のようなAI演算コアを形成しています。
Rubinプラットフォームのコアには、Rubin GPU、Vera CPU、NVLink 6、Spectrum-X光イーサネット、ConnectX-9 SuperNIC、BlueField-4 DPUが含まれます。特に、Rubin GPUはNVFP4精度で、推論性能が50ペタフロップスに達します。黄仁勳は、全体のキャビネットとネットワークの一体化設計により、Rubinの目標はすべてのボトルネックを排除し、各AIトークンの総所有コスト(TCO)を従来の約10分の1に抑えることだと述べました。
新世代データセンター用プロセッサBlueField-4
ハードウェア面では、NVIDIAはVera CPUとBlueField-4の実際の展開詳細も初めて公開しました。Vera CPUは電力制限のあるシナリオを設計の中心とし、単位ワットあたりの性能は現行のトップクラスCPUの2倍に達し、シングルスレッド性能とメモリ容量も大幅に向上しています。これはAIスーパーコンピュータとデータセンター向けに設計されたものです。
黄仁勳はさらに、NVIDIAの新しいデータセンター用プロセッサBlueField-4について紹介し、大規模なデータセンターを複数の独立したブロックに分割し、異なるユーザーが同時に運用できるようにし、仮想化、セキュリティ、南北向きのネットワークトラフィック管理など多くの作業をCPUにオフロードして、各演算ノードの標準装備とすることを発表しました。また、NVIDIAは業界標準のシステムアーキテクチャの推進も表明し、エコシステムとサプライチェーン全体で同じコンポーネントを共有します。
一つのMGXシステムは約8万個の部品で構成されているため、仕様変更を毎年行うと大きな浪費を招くことから、鴻海、広達、緯創、HP、Dell、Lenovoなど主要なシステムメーカーは、既存の製造体制の下で新プラットフォームを直接導入できるとしています。
なお、Vera Rubinの総消費電力は前世代のGrace Blackwellの2倍ですが、吸気流はほぼ同じで、冷却水温度は45°Cに維持されており、データセンターでは冷水機を設置せずに熱水冷却を行うことと同等です。
データセンターCPO交換プラットフォーム、重要技術は台湾積体電路製造のCOOPプロセスから
新世代AIデータセンターのネットワークコア、Spectrum-X Ethernet Co-Packaged Optics(CPO)スイッチングプラットフォームの重要技術は、台湾積体電路製造(TSMC)とNVIDIAが共同開発したCOOP(Co-Optimized Optics Packaging、統合シリコンフォトニクス)プロセスから来ています。
このプロセスは、シリコンフォトニクス光学素子をスイッチングチップのパッケージコアに直接統合し、従来の外付け光モジュールを排除します。これにより、単一のスイッチングチップで最大102.4Tb/sの横方向拡張帯域幅をサポートし、最大512ポート、各ポート200Gb/sの高速接続能力を提供します。
この記事は、黄仁勳のCES2026における定調:Vera Rubinの全面量産、AI自動運転車Q1上市、重要製造プロセスは台湾積体電路製造から最も早く登場したことについて、ABMediaの鏈新聞に掲載されました。