La demande pour l’infrastructure serveur dépasse même les prévisions les plus optimistes dans le secteur du matériel AI. En décembre, Micron Technology (NASDAQ : MU) a fait un mouvement significatif en révisant à la hausse ses prévisions d’expédition de serveurs pour 2025—passant d’une croissance prévue de 10 % à un pourcentage à deux chiffres élevé. Ce qui rend cette révision particulièrement frappante, ce n’est pas seulement son ampleur, mais aussi le timing : les ajustements en milieu d’année sont courants, mais les révisions en fin de trimestre signalent quelque chose d’extraordinaire en cours dans les flux de commandes en temps réel.
En regardant le marché plus large, les projections de IDC dressent un tableau encore plus spectaculaire : les dépenses mondiales en serveurs devraient augmenter de 80 % en 2025, suivies d’une autre hausse de 24,3 % en 2026. Il ne s’agit pas d’une croissance incrémentielle—c’est une refonte fondamentale des modèles de dépenses en infrastructure, impulsée par l’accélération de l’IA.
Les bénéficiaires sont clairs : les entreprises contrôlant les couches matérielles critiques alimentant cette expansion. Intel (NASDAQ : INTC) domine les CPU pour centres de données, tandis que Micron contrôle les chaînes d’approvisionnement en mémoire qui alimentent à la fois les serveurs traditionnels et les accélérateurs AI de pointe. Les deux surfent sur des vagues de demande sans précédent.
Quand l’offre devient la véritable marchandise
Les puces mémoire opèrent sur des marchés de commodités où la rareté entraîne des prix explosifs. En ce moment, c’est exactement la dynamique en jeu.
Des fabricants comme Micron ont stratégiquement redirigé leur capacité de production vers des puces mémoire (HBM) à haute bande passante—les composants spécialisés dont dépendent les accélérateurs AI. Cette réaffectation semble raisonnable jusqu’à ce que l’on réalise le dommage collatéral : les puces DRAM standard, toujours absolument cruciales pour l’infrastructure serveur, sont mises de côté dans les files d’attente de production.
Sanjay Mehrotra, PDG de Micron, a été clair sur la contrainte lors des résultats récents : l’entreprise ne peut satisfaire que 50 % à deux tiers de la demande de ses principaux clients à moyen terme. Ce n’est pas un simple contretemps—c’est une limitation structurelle.
Même avec des augmentations agressives des investissements en capital annoncées pour 2026, une expansion significative de l’offre ne sera pas immédiate. Le calendrier raconte l’histoire : la première nouvelle usine de mémoire en Idaho ne produira pas de wafers avant la mi-2027, avec une seconde installation en ligne en 2028. La nouvelle usine prévue à New York ne contribuera pas avant 2030.
Le calcul est simple : 2026 verra des contraintes d’offre persistantes, un pouvoir de fixation des prix maintenu, et une expansion des marges pour les producteurs. Les résultats du premier trimestre fiscal 2026 de Micron ont déjà indiqué cette trajectoire—le chiffre d’affaires a augmenté de 57 % d’une année sur l’autre, tandis que le bénéfice net a presque triplé. Tant que l’offre restera limitée et que la demande restera élevée, les prix devraient rester fermes.
La reprise des CPU que personne n’avait anticipée
Le boom de l’IA a initialement cannibalisé la demande pour les CPU serveur, le capital étant dirigé vers les GPU et les accélérateurs AI. Pour Intel, cela a créé un problème cumulatif : l’érosion de la part de marché au profit d’AMD s’est accompagnée d’une diminution des cycles de rafraîchissement des CPU dans les centres de données.
Mais le récit a changé. Lors de la Barclays Global Technology Conference, Intel a annoncé une reprise inattendue—la demande pour les CPU serveur est étonnamment résiliente et en croissance.
Trois facteurs expliquent cette inversion :
Premièrement, les hyperscalers effectuent des rafraîchissements de serveurs en retard. Ils remplacent des CPU vieillissants et gourmands en énergie par des modèles plus récents et plus efficaces. Étant donné que les charges de travail AI sont énergivores, les CPU modernes réduisent de manière mesurable le coût total de possession—rendant les mises à niveau économiquement justifiables.
Deuxièmement, les CPU jouent un rôle sous-estimé dans certaines applications AI. Les pipelines de génération augmentée par récupération (RAG), qui relient de grands modèles linguistiques à des données externes pour améliorer les résultats, bénéficient de composants accélérés par CPU. Les derniers CPU serveurs d’Intel intègrent des capacités de traitement AI qui gèrent efficacement les fonctions des pipelines RAG.
Troisièmement, l’ampleur même des déploiements d’infrastructure signifie que même les centres de données centrés sur le GPU nécessitent un nombre substantiel de CPU de support.
Intel a déjà commencé à déplacer sa capacité de fabrication des CPU grand public vers les CPU pour centres de données. La contrainte reste aiguë en début 2026, mais la feuille de route des processus d’Intel offre une certaine soulagement : les CPU serveurs de génération actuelle utilisent la technologie Intel 3, tandis que les puces de prochaine génération lancées en 2026 passeront à Intel 18A. À mesure que de nouveaux processus seront déployés à grande échelle, la capacité de fabrication s’étendra proportionnellement.
Le segment centres de données et AI a montré une faiblesse au T3, mais une reprise se dessine alors qu’Intel priorise la production de CPU serveur pour capter la demande en forte croissance.
Deux stratégies différentes face au même boom
Micron et Intel représentent deux leviers distincts dans l’explosion de l’infrastructure serveur. Micron profite des marchés de mémoire contraints par l’offre, où le pouvoir de fixation des prix perdure jusqu’en 2026. Intel tire profit de la reprise de la demande en CPU et de la montée en puissance des technologies de processus qui libèrent des capacités.
Aucune de ces actions ne semble surévaluée compte tenu des vents favorables structurels, bien que des risques d’exécution existent pour les deux. Le boom des serveurs redéfinit fondamentalement quels actions AI attirent l’attention des investisseurs, et ces deux géants du matériel sont positionnés au cœur de cette transition. Que cette accélération continue ou se modère dépend de la rapidité avec laquelle le déploiement de l’infrastructure AI progresse—mais pour l’instant, la dynamique reste résolument à la hausse.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'essor du matériel serveur bouleverse les actions liées à l'IA telles que Micron et Intel bien plus rapidement que prévu
L’accélération que personne n’avait vue venir
La demande pour l’infrastructure serveur dépasse même les prévisions les plus optimistes dans le secteur du matériel AI. En décembre, Micron Technology (NASDAQ : MU) a fait un mouvement significatif en révisant à la hausse ses prévisions d’expédition de serveurs pour 2025—passant d’une croissance prévue de 10 % à un pourcentage à deux chiffres élevé. Ce qui rend cette révision particulièrement frappante, ce n’est pas seulement son ampleur, mais aussi le timing : les ajustements en milieu d’année sont courants, mais les révisions en fin de trimestre signalent quelque chose d’extraordinaire en cours dans les flux de commandes en temps réel.
En regardant le marché plus large, les projections de IDC dressent un tableau encore plus spectaculaire : les dépenses mondiales en serveurs devraient augmenter de 80 % en 2025, suivies d’une autre hausse de 24,3 % en 2026. Il ne s’agit pas d’une croissance incrémentielle—c’est une refonte fondamentale des modèles de dépenses en infrastructure, impulsée par l’accélération de l’IA.
Les bénéficiaires sont clairs : les entreprises contrôlant les couches matérielles critiques alimentant cette expansion. Intel (NASDAQ : INTC) domine les CPU pour centres de données, tandis que Micron contrôle les chaînes d’approvisionnement en mémoire qui alimentent à la fois les serveurs traditionnels et les accélérateurs AI de pointe. Les deux surfent sur des vagues de demande sans précédent.
Quand l’offre devient la véritable marchandise
Les puces mémoire opèrent sur des marchés de commodités où la rareté entraîne des prix explosifs. En ce moment, c’est exactement la dynamique en jeu.
Des fabricants comme Micron ont stratégiquement redirigé leur capacité de production vers des puces mémoire (HBM) à haute bande passante—les composants spécialisés dont dépendent les accélérateurs AI. Cette réaffectation semble raisonnable jusqu’à ce que l’on réalise le dommage collatéral : les puces DRAM standard, toujours absolument cruciales pour l’infrastructure serveur, sont mises de côté dans les files d’attente de production.
Sanjay Mehrotra, PDG de Micron, a été clair sur la contrainte lors des résultats récents : l’entreprise ne peut satisfaire que 50 % à deux tiers de la demande de ses principaux clients à moyen terme. Ce n’est pas un simple contretemps—c’est une limitation structurelle.
Même avec des augmentations agressives des investissements en capital annoncées pour 2026, une expansion significative de l’offre ne sera pas immédiate. Le calendrier raconte l’histoire : la première nouvelle usine de mémoire en Idaho ne produira pas de wafers avant la mi-2027, avec une seconde installation en ligne en 2028. La nouvelle usine prévue à New York ne contribuera pas avant 2030.
Le calcul est simple : 2026 verra des contraintes d’offre persistantes, un pouvoir de fixation des prix maintenu, et une expansion des marges pour les producteurs. Les résultats du premier trimestre fiscal 2026 de Micron ont déjà indiqué cette trajectoire—le chiffre d’affaires a augmenté de 57 % d’une année sur l’autre, tandis que le bénéfice net a presque triplé. Tant que l’offre restera limitée et que la demande restera élevée, les prix devraient rester fermes.
La reprise des CPU que personne n’avait anticipée
Le boom de l’IA a initialement cannibalisé la demande pour les CPU serveur, le capital étant dirigé vers les GPU et les accélérateurs AI. Pour Intel, cela a créé un problème cumulatif : l’érosion de la part de marché au profit d’AMD s’est accompagnée d’une diminution des cycles de rafraîchissement des CPU dans les centres de données.
Mais le récit a changé. Lors de la Barclays Global Technology Conference, Intel a annoncé une reprise inattendue—la demande pour les CPU serveur est étonnamment résiliente et en croissance.
Trois facteurs expliquent cette inversion :
Premièrement, les hyperscalers effectuent des rafraîchissements de serveurs en retard. Ils remplacent des CPU vieillissants et gourmands en énergie par des modèles plus récents et plus efficaces. Étant donné que les charges de travail AI sont énergivores, les CPU modernes réduisent de manière mesurable le coût total de possession—rendant les mises à niveau économiquement justifiables.
Deuxièmement, les CPU jouent un rôle sous-estimé dans certaines applications AI. Les pipelines de génération augmentée par récupération (RAG), qui relient de grands modèles linguistiques à des données externes pour améliorer les résultats, bénéficient de composants accélérés par CPU. Les derniers CPU serveurs d’Intel intègrent des capacités de traitement AI qui gèrent efficacement les fonctions des pipelines RAG.
Troisièmement, l’ampleur même des déploiements d’infrastructure signifie que même les centres de données centrés sur le GPU nécessitent un nombre substantiel de CPU de support.
Intel a déjà commencé à déplacer sa capacité de fabrication des CPU grand public vers les CPU pour centres de données. La contrainte reste aiguë en début 2026, mais la feuille de route des processus d’Intel offre une certaine soulagement : les CPU serveurs de génération actuelle utilisent la technologie Intel 3, tandis que les puces de prochaine génération lancées en 2026 passeront à Intel 18A. À mesure que de nouveaux processus seront déployés à grande échelle, la capacité de fabrication s’étendra proportionnellement.
Le segment centres de données et AI a montré une faiblesse au T3, mais une reprise se dessine alors qu’Intel priorise la production de CPU serveur pour capter la demande en forte croissance.
Deux stratégies différentes face au même boom
Micron et Intel représentent deux leviers distincts dans l’explosion de l’infrastructure serveur. Micron profite des marchés de mémoire contraints par l’offre, où le pouvoir de fixation des prix perdure jusqu’en 2026. Intel tire profit de la reprise de la demande en CPU et de la montée en puissance des technologies de processus qui libèrent des capacités.
Aucune de ces actions ne semble surévaluée compte tenu des vents favorables structurels, bien que des risques d’exécution existent pour les deux. Le boom des serveurs redéfinit fondamentalement quels actions AI attirent l’attention des investisseurs, et ces deux géants du matériel sont positionnés au cœur de cette transition. Que cette accélération continue ou se modère dépend de la rapidité avec laquelle le déploiement de l’infrastructure AI progresse—mais pour l’instant, la dynamique reste résolument à la hausse.