Cette semaine, l’industrie de l’intelligence artificielle (IA) a été secouée par une possible dispute juridique entre Microsoft et OpenAI concernant un partenariat cloud de 50 milliards de dollars avec Amazon, Nvidia annonçant pour 1 000 milliards de dollars de commandes de puces lors de sa conférence GTC, et de nouvelles alertes fédérales indiquant que la demande croissante de centres de données IA déstabilise le réseau électrique américain.
Microsoft Corp. envisagerait de poursuivre OpenAI et Amazon après que OpenAI a désigné Amazon Web Services comme hébergeur cloud tiers exclusif pour sa nouvelle plateforme IA d’entreprise, Frontier — une décision que Microsoft conteste comme violant une clause clé de leur accord de partenariat exigeant que les appels API des modèles OpenAI transitent via Microsoft Azure.
Une personne proche de la position de Microsoft a indiqué au Financial Times que la société prévoit de faire respecter le contrat en cas de violation. OpenAI, qui s’est restructurée en société à but d’intérêt public en 2025, affirme que l’accord avec AWS reste dans les limites contractuelles. Le différend survient alors qu’OpenAI se prépare à une éventuelle introduction en bourse en 2026, estimée à 1 000 milliards de dollars.
Lors de sa conférence annuelle GTC à San Jose, Californie, le PDG de Nvidia Jensen Huang a annoncé que les commandes pour les puces Blackwell et Vera Rubin de la société atteignent désormais 1 000 milliards de dollars jusqu’en 2027, soit le double des 500 milliards de dollars prévus l’année précédente. La conférence a également présenté le processeur de traitement linguistique Groq 3 — issu de la startup que Nvidia a acquise pour environ 20 milliards de dollars en décembre — intégré dans un rack de 256 unités conçu pour accélérer les charges de travail d’inférence IA.
Nvidia a présenté son architecture Kyber pour le système Vera Rubin Ultra 2027, comprenant 144 GPU dans des plateaux de calcul verticaux, et a lancé Dynamo 1.0, une couche d’orchestration logicielle pour les usines IA. La keynote s’est terminée par une démonstration en direct d’un personnage animé alimenté par IA marchant sur scène.
La semaine a également été marquée par une vague de lancements de modèles concurrents. OpenAI a lancé GPT-5.4 Mini et GPT-5.4 Nano le 17 mars, complétant sa famille GPT-5.4 en plusieurs niveaux ; Mini est plus de deux fois plus rapide que son prédécesseur et atteint des performances proches de celles des modèles phares en matière de codage, tandis que Nano cible les tâches de classification et d’extraction de données à 0,20 $ par million de tokens d’entrée.
La startup française Mistral a publié le 16 mars Mistral Small 4, un modèle open source de 119 milliards de paramètres sous licence Apache 2.0, regroupant trois produits précédemment séparés — raisonnement, vision multimodale et codage agentique — en un seul point de terminaison avec une fenêtre de contexte de 256 000 tokens. Google a également annoncé Gemini Embedding 2, un modèle d’intégration multimodale unifié traitant texte, images, vidéos, audio et documents dans un espace d’intégration partagé.
Les analystes en énergie et les chercheurs en services publics ont publié cette semaine des avertissements convergents selon lesquels l’expansion de l’infrastructure IA entre en collision avec les limites physiques du réseau électrique américain. Wood Mackenzie a constaté que les développeurs de centres de données n’ont ajouté que 25 gigawatts de capacité électrique en fin d’année 2025 — la moitié du rythme du trimestre précédent — et prévoit que la croissance des investissements dans le secteur ralentira en 2026, pour la première fois depuis 2023.
Les prix de l’électricité résidentielle ont augmenté de plus de 36 % depuis 2020, avec l’énergie des centres de données IA citée comme l’un des principaux contributeurs. Bloomberg a rapporté que les centres de données produisent déjà des distorsions électriques appelées harmoniques dans les réseaux régionaux, la région de Northern Virginia étant un exemple particulièrement aigu.
Au-delà du secteur privé, les développements en IA cette semaine ont touché la médecine, la géopolitique et Wall Street. Microsoft a annoncé GigaTIME, un modèle d’oncologie multimodal entraîné sur les données de plus de 14 000 patients, qui convertit des lames pathologiques standard de 5 à 10 dollars en cartes de protéomique spatiale du cancer, identifiant 1 234 nouvelles connexions entre protéines et survie.
La Corée du Sud a révélé qu’elle négociait directement avec Anthropic pour utiliser le modèle Claude de l’entreprise comme base pour une infrastructure nationale d’IA souveraine, rejoignant une liste croissante de pays, dont les Émirats arabes unis, la France et le Japon, qui cherchent à établir des accords gouvernement-chercheur en IA. Meta a annoncé des retards pour son prochain modèle phare, codé en interne Avocado, dont la sortie a été repoussée de mars à mai après que des tests internes ont montré une performance inférieure à celle des concurrents en matière de raisonnement et de codage.
Alors que l’attention portée aux investissements s’intensifie, Bloomberg a publié cette semaine une analyse approfondie s’interrogeant sur le fait que le boom d’investissements en capital dans l’IA sur trois ans approche peut-être d’un point d’inflexion.
L’article note que Meta et Google ont chacune promis de doubler leurs dépenses en capital en 2026, tandis que les calendriers de monétisation restent incertains dans l’industrie. Les analystes de Wall Street restent fortement divisés sur la question de savoir si l’IA représente une valeur économique transformative ou un cycle spéculatif excessif. L’analyse présente 2026 comme l’année où l’écart entre le battage médiatique autour de l’IA et le retour sur investissement commencera à se réduire — ou à s’élargir.