La prévision de 50 milliards de dollars de Nvidia n'est pas suffisante ! Colette Kress confirme : ce sera encore plus élevé, Huang souligne la forte demande des clients chinois
Le directeur financier de Nvidia, Colette Kress, a envoyé un signal fort lors d’un événement organisé par JP Morgan, affirmant que l’objectif de revenus de 500 milliards de dollars de la société pour les puces de centres de données “sera certainement dépassé”. Cette déclaration indique qu’après l’annonce de cette prévision par Jensen Huang lors de la conférence GTC en octobre dernier, l’enthousiasme des clients pour les produits Nvidia dépasse largement les attentes.
Objectifs de revenus en constante augmentation, optimisme en hausse
Kress a clairement indiqué que l’intention d’achat des clients actuels s’est considérablement renforcée depuis la publication des prévisions. Elle a souligné dans son discours que ce chiffre de 500 milliards de dollars “sera certainement plus élevé”. Selon une analyse de Goldman Sachs, cet objectif était déjà supérieur d’environ 12 % au consensus du marché à l’époque, et la nouvelle hausse anticipée par Kress confirme à nouveau la dynamique forte de Nvidia.
Kress a précisé que l’optimisme de Nvidia concernant les perspectives d’applications d’intelligence artificielle ne provient pas seulement de la demande explosive pour l’IA elle-même, mais aussi de la croissance rapide des besoins en traitement de données au niveau enterprise. Ces facteurs combinés devraient stimuler la croissance de la prochaine génération de besoins en calcul, avec une estimation que, d’ici la fin 2030, l’investissement total associé atteindra plusieurs dizaines de billions de dollars.
Il est important de noter que Kress a spécifiquement mentionné que ces commandes de 500 milliards de dollars n’incluent pas la dernière collaboration avec OpenAI, et que l’accord d’investissement de 10 milliards de dollars précédemment annoncé avec OpenAI n’a pas encore été finalisé officiellement. Cela signifie que Nvidia dispose encore d’un espace pour obtenir des commandes supplémentaires sur la base de ses prévisions existantes.
Huang annonce la production complète du chip Rubin lors du CES
Jensen Huang a officiellement annoncé lors du CES de Las Vegas que la nouvelle génération de la plateforme AI Vera Rubin est désormais en production complète. La livraison aux premiers clients est prévue pour le second semestre 2026.
Le chip Rubin utilise une conception intégrée de six nouveaux chips, réalisant des avancées significatives en termes de coûts d’inférence et d’efficacité d’entraînement. Huang l’a qualifié de “monstre énorme”, expliquant que la conception centrale vise à réduire le coût d’inférence de 10 fois chaque année, tout en augmentant le nombre de tokens générés par l’IA de 5 fois chaque année.
En termes de performances, le GPU Rubin atteint 50 PFLOPS en inférence (avec précision NVFP4), ce qui équivaut à cinq fois Blackwell ; la performance d’entraînement est de 35 PFLOPS, soit 3,5 fois celle de la génération précédente. Plus important encore, le coût de génération de tokens en inférence peut être réduit à un dixième de celui de la plateforme Blackwell.
Chaque GPU est équipé de huit modules de mémoire HBM4, avec une bande passante allant jusqu’à 22 TB/s. Pour résoudre le problème du “goulot d’étranglement” de la mémoire dans les systèmes IA, Nvidia a développé une plateforme de stockage de contexte d’inférence basée sur le DPU BlueField-4, offrant 16 TB de mémoire partagée à haute vitesse par GPU, connectée via une bande passante de 200 Gb/s, spécialement conçue pour traiter les longues séquences de texte.
Percée en efficacité énergétique, nouvelle solution de refroidissement pour centres de données
En termes d’efficacité énergétique, le rack Rubin NVL72 a réalisé une solution de refroidissement liquide à 100 %, supportant une température d’entrée d’eau de 45°C. Cela signifie que les centres de données n’auront plus besoin de refroidisseurs à eau glacée très énergivores. Selon Huang, cela pourrait permettre d’économiser environ 6 % de la consommation électrique mondiale des centres de données.
Les déclarations sur les puces provoquent un bouleversement dans la chaîne industrielle
L’accent mis par Huang sur l’importance du stockage et de la mémoire lors du CES a eu un impact immédiat. Il a indiqué que cela ouvre un marché sans précédent, qui pourrait devenir le plus grand marché de stockage au monde — en substance, la “mémoire de travail” pour toutes les applications IA mondiales.
Sous cette impulsion, le géant des puces de stockage SanDisk est devenu mardi la meilleure action du S&P 500, avec une hausse proche de 27,6 %, enregistrant la plus forte hausse en une seule journée depuis le 18 février 2025. Western Digital, Seagate et d’autres fabricants de dispositifs de stockage ont également connu des gains à deux chiffres mardi.
En revanche, les actions des fabricants de systèmes de refroidissement pour centres de données ont été lourdement impactées. Johnson Controls a chuté de 11 % à un moment donné, clôturant finalement en baisse de plus de 6,2 % ; Modine Manufacturing a chuté de 21 % à un moment, puis a réduit sa baisse à 7,5 % ; Trane Technologies et Carrier Global ont respectivement reculé de 2,5 % et 0,5 %. La baisse des cours s’explique directement par les déclarations de Huang — le fait que le chip Rubin peut être refroidi à l’eau tiède sans nécessiter de refroidisseurs à eau glacée.
L’analyste de Baird, Timothy Wojs, a écrit que les propos de Huang “soulevaient des questions et des doutes sur le positionnement à moyen et long terme des équipements de refroidissement pour centres de données, surtout dans un contexte où la technologie de refroidissement liquide devient de plus en plus répandue”. L’analyste de Barclays, Julian Mitchell, a quant à lui estimé qu’étant donné la position dominante de Nvidia dans l’écosystème IA, il ne faut pas trop interpréter ces déclarations, mais il ne faut pas non plus les ignorer.
Potentiel du marché chinois en ligne de mire
Concernant l’impact potentiel du marché chinois sur les revenus de Nvidia, Kress a indiqué que le gouvernement américain accélère le processus d’approbation des licences. Nvidia a déjà reçu des commandes de clients chinois, mais les résultats concrets restent incertains. Huang a souligné dans une interview la forte demande des clients chinois, indiquant que ce marché est crucial pour les perspectives de croissance de Nvidia.
Malgré les signaux favorables fréquents de la direction, l’action Nvidia n’a pas été performante mardi. Elle a brièvement augmenté de plus de 2 % en début de séance, mais a finalement clôturé en baisse de près de 0,5 %, en baisse deux jours consécutifs. Depuis le début de 2025, Nvidia a enregistré une hausse totale d’environ 39 %, bien loin des plus de 170 % en 2024, principalement en raison des inquiétudes concernant la bulle de l’IA et de la concurrence de Google TPU.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La prévision de 50 milliards de dollars de Nvidia n'est pas suffisante ! Colette Kress confirme : ce sera encore plus élevé, Huang souligne la forte demande des clients chinois
Le directeur financier de Nvidia, Colette Kress, a envoyé un signal fort lors d’un événement organisé par JP Morgan, affirmant que l’objectif de revenus de 500 milliards de dollars de la société pour les puces de centres de données “sera certainement dépassé”. Cette déclaration indique qu’après l’annonce de cette prévision par Jensen Huang lors de la conférence GTC en octobre dernier, l’enthousiasme des clients pour les produits Nvidia dépasse largement les attentes.
Objectifs de revenus en constante augmentation, optimisme en hausse
Kress a clairement indiqué que l’intention d’achat des clients actuels s’est considérablement renforcée depuis la publication des prévisions. Elle a souligné dans son discours que ce chiffre de 500 milliards de dollars “sera certainement plus élevé”. Selon une analyse de Goldman Sachs, cet objectif était déjà supérieur d’environ 12 % au consensus du marché à l’époque, et la nouvelle hausse anticipée par Kress confirme à nouveau la dynamique forte de Nvidia.
Kress a précisé que l’optimisme de Nvidia concernant les perspectives d’applications d’intelligence artificielle ne provient pas seulement de la demande explosive pour l’IA elle-même, mais aussi de la croissance rapide des besoins en traitement de données au niveau enterprise. Ces facteurs combinés devraient stimuler la croissance de la prochaine génération de besoins en calcul, avec une estimation que, d’ici la fin 2030, l’investissement total associé atteindra plusieurs dizaines de billions de dollars.
Il est important de noter que Kress a spécifiquement mentionné que ces commandes de 500 milliards de dollars n’incluent pas la dernière collaboration avec OpenAI, et que l’accord d’investissement de 10 milliards de dollars précédemment annoncé avec OpenAI n’a pas encore été finalisé officiellement. Cela signifie que Nvidia dispose encore d’un espace pour obtenir des commandes supplémentaires sur la base de ses prévisions existantes.
Huang annonce la production complète du chip Rubin lors du CES
Jensen Huang a officiellement annoncé lors du CES de Las Vegas que la nouvelle génération de la plateforme AI Vera Rubin est désormais en production complète. La livraison aux premiers clients est prévue pour le second semestre 2026.
Le chip Rubin utilise une conception intégrée de six nouveaux chips, réalisant des avancées significatives en termes de coûts d’inférence et d’efficacité d’entraînement. Huang l’a qualifié de “monstre énorme”, expliquant que la conception centrale vise à réduire le coût d’inférence de 10 fois chaque année, tout en augmentant le nombre de tokens générés par l’IA de 5 fois chaque année.
En termes de performances, le GPU Rubin atteint 50 PFLOPS en inférence (avec précision NVFP4), ce qui équivaut à cinq fois Blackwell ; la performance d’entraînement est de 35 PFLOPS, soit 3,5 fois celle de la génération précédente. Plus important encore, le coût de génération de tokens en inférence peut être réduit à un dixième de celui de la plateforme Blackwell.
Chaque GPU est équipé de huit modules de mémoire HBM4, avec une bande passante allant jusqu’à 22 TB/s. Pour résoudre le problème du “goulot d’étranglement” de la mémoire dans les systèmes IA, Nvidia a développé une plateforme de stockage de contexte d’inférence basée sur le DPU BlueField-4, offrant 16 TB de mémoire partagée à haute vitesse par GPU, connectée via une bande passante de 200 Gb/s, spécialement conçue pour traiter les longues séquences de texte.
Percée en efficacité énergétique, nouvelle solution de refroidissement pour centres de données
En termes d’efficacité énergétique, le rack Rubin NVL72 a réalisé une solution de refroidissement liquide à 100 %, supportant une température d’entrée d’eau de 45°C. Cela signifie que les centres de données n’auront plus besoin de refroidisseurs à eau glacée très énergivores. Selon Huang, cela pourrait permettre d’économiser environ 6 % de la consommation électrique mondiale des centres de données.
Les déclarations sur les puces provoquent un bouleversement dans la chaîne industrielle
L’accent mis par Huang sur l’importance du stockage et de la mémoire lors du CES a eu un impact immédiat. Il a indiqué que cela ouvre un marché sans précédent, qui pourrait devenir le plus grand marché de stockage au monde — en substance, la “mémoire de travail” pour toutes les applications IA mondiales.
Sous cette impulsion, le géant des puces de stockage SanDisk est devenu mardi la meilleure action du S&P 500, avec une hausse proche de 27,6 %, enregistrant la plus forte hausse en une seule journée depuis le 18 février 2025. Western Digital, Seagate et d’autres fabricants de dispositifs de stockage ont également connu des gains à deux chiffres mardi.
En revanche, les actions des fabricants de systèmes de refroidissement pour centres de données ont été lourdement impactées. Johnson Controls a chuté de 11 % à un moment donné, clôturant finalement en baisse de plus de 6,2 % ; Modine Manufacturing a chuté de 21 % à un moment, puis a réduit sa baisse à 7,5 % ; Trane Technologies et Carrier Global ont respectivement reculé de 2,5 % et 0,5 %. La baisse des cours s’explique directement par les déclarations de Huang — le fait que le chip Rubin peut être refroidi à l’eau tiède sans nécessiter de refroidisseurs à eau glacée.
L’analyste de Baird, Timothy Wojs, a écrit que les propos de Huang “soulevaient des questions et des doutes sur le positionnement à moyen et long terme des équipements de refroidissement pour centres de données, surtout dans un contexte où la technologie de refroidissement liquide devient de plus en plus répandue”. L’analyste de Barclays, Julian Mitchell, a quant à lui estimé qu’étant donné la position dominante de Nvidia dans l’écosystème IA, il ne faut pas trop interpréter ces déclarations, mais il ne faut pas non plus les ignorer.
Potentiel du marché chinois en ligne de mire
Concernant l’impact potentiel du marché chinois sur les revenus de Nvidia, Kress a indiqué que le gouvernement américain accélère le processus d’approbation des licences. Nvidia a déjà reçu des commandes de clients chinois, mais les résultats concrets restent incertains. Huang a souligné dans une interview la forte demande des clients chinois, indiquant que ce marché est crucial pour les perspectives de croissance de Nvidia.
Malgré les signaux favorables fréquents de la direction, l’action Nvidia n’a pas été performante mardi. Elle a brièvement augmenté de plus de 2 % en début de séance, mais a finalement clôturé en baisse de près de 0,5 %, en baisse deux jours consécutifs. Depuis le début de 2025, Nvidia a enregistré une hausse totale d’environ 39 %, bien loin des plus de 170 % en 2024, principalement en raison des inquiétudes concernant la bulle de l’IA et de la concurrence de Google TPU.