Nvidia renforce sa maîtrise de l'IA dans le cloud avec un accord majeur avec AWS

Decrypt

En résumé

  • AWS prévoit de déployer environ 1 million de GPU Nvidia d’ici 2027.
  • La mise en place couvre le calcul, le réseau et les systèmes pour exécuter l’IA à grande échelle.
  • Les observateurs estiment que la demande croissante d’inférences redéfinit l’infrastructure et la concurrence.

Nvidia fournira à Amazon Web Services un volume massif de GPU jusqu’en 2027 alors que le fournisseur de cloud intensifie son infrastructure IA et cherche à répondre à une demande croissante. AWS a annoncé plus tôt cette semaine qu’il prévoit de déployer environ 1 million de GPU Nvidia dans le cadre de son expansion de l’infrastructure IA. Un dirigeant de Nvidia a confirmé jeudi à Reuters que cette mise en service devrait durer jusqu’à la fin 2027. À partir de cette année, dans les régions cloud mondiales d’AWS, elle sera déployée parallèlement à une collaboration accrue avec Nvidia sur le réseau et d’autres infrastructures pour construire des systèmes « capables de raisonner, planifier et agir de manière autonome dans des flux de travail complexes », a indiqué AWS, en soulignant ses travaux sur des systèmes d’IA agentique.

 AWS continue de développer des puces IA pour la formation et l’inférence. La collaboration suggère que la demande pourrait évoluer à travers la pile IA, tandis qu’une part croissante de l’activité semble liée à l’exécution de modèles dans des services en direct. L’accord intervient alors que des procureurs américains poursuivent une affaire alléguant que des puces Nvidia ont été clandestinement exportées vers la Chine, remettant en question la chaîne d’approvisionnement mondiale et les contrôles de l’entreprise. Depuis 2022, les puces les plus avancées de Nvidia sont strictement contrôlées dans le cadre d’une stratégie plus large des États-Unis visant à limiter les progrès de la Chine dans l’informatique avancée et l’IA.

Ce développement plus proche de chez nous pourrait presque élargir cet écart. Changements de rythme Les observateurs estiment que la structure de l’accord donne des indices sur l’endroit où la demande se construit et comment l’infrastructure sous-jacente évolue à un rythme de plus en plus rapide. « Nvidia devient la couche d’infrastructure sous-jacente aux fournisseurs de cloud, pas seulement un fournisseur de puces pour eux », a déclaré Dermot McGrath, co-fondateur du studio de stratégie et de croissance ZenGen Labs, à Decrypt. Les puces dans cet accord sont conçues pour exécuter des modèles IA à grande échelle, en mettant l’accent sur la réduction des coûts d’utilisation, a indiqué McGrath, notant que l’inférence représente désormais environ deux tiers de la puissance de calcul IA, contre environ un tiers en 2023. Le marché des puces axées sur l’inférence devrait dépasser 50 milliards de dollars d’ici 2026, a-t-il ajouté, citant des estimations de Deloitte. AWS peut utiliser à la fois Nvidia et ses propres puces dans les mêmes systèmes, offrant aux clients plus de choix que ses concurrents qui maintiennent leur technologie fermée, a expliqué McGrath, ajoutant que cette flexibilité « constitue un différenciateur ». « Maintenant, Nvidia fait la même chose à un niveau inférieur, avec le réseau et l’architecture des racks plutôt qu’un modèle de programmation », a-t-il dit. Les puces d’inférence sont des processeurs conçus pour exécuter en temps réel des modèles IA entraînés, sans nécessiter de réentraînement.

La demande pour l’inférence « pousse à des engagements à long terme » pour plus de puissance de calcul, et crée des liens plus étroits entre les fournisseurs de cloud et les fabricants de puces, a déclaré Pichapen Prateepavanich, stratégiste en politique et fondateur de l’entreprise d’infrastructure Gather Beyond, à Decrypt. « Les fournisseurs de cloud veulent une indépendance à long terme, mais à court terme, ils ont besoin que Nvidia reste compétitive », a-t-elle dit, notant que cela crée une dynamique où coopération et concurrence coexistent. Cependant, le contrôle de l’infrastructure IA évolue aussi. Ce qui se passe, c’est une « inversion de l’infrastructure », a déclaré Berna Misa, partenaire en transactions chez Boardy Ventures, un fonds d’investissement axé sur l’IA, à Decrypt. Nvidia « intègre toute sa stack dans les centres de données AWS, qui utilisaient des équipements propriétaires depuis des années », a-t-elle expliqué. Mais alors qu’AWS développe ses propres puces IA, cela « ne change pas la donne », a-t-elle précisé, en soulignant que l’inférence dépend de plusieurs composants de la stack, dont Nvidia fournit la majorité. « Quand vous êtes aussi profondément intégré dans la stack de votre client, le coût de changement et la couche de contexte qui en découle deviennent la forteresse », a-t-elle conclu.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire