Nvidia vertieft seinen Einfluss auf Cloud-KI mit großem AWS-Chip-Deal

Decrypt

Kurzfassung

  • AWS plant, bis 2027 etwa 1 Million Nvidia-GPUs einzusetzen.
  • Der Ausbau umfasst Rechenleistung, Netzwerke und Systeme für das skalierte KI-Betrieb.
  • Beobachter sagen, dass die steigende Nachfrage nach Inferenz die Infrastruktur und den Wettbewerb neu gestaltet.

Nvidia wird Amazon Web Services bis 2027 mit einer enormen Menge an GPUs versorgen, während der Cloud-Anbieter seine KI-Infrastruktur ausbaut und die wachsende Nachfrage decken möchte. AWS kündigte Anfang dieser Woche an, dass es rund 1 Million Nvidia-GPUs im Rahmen seines erweiterten KI-Infrastrukturaufbaus einsetzen will. Ein Nvidia-Manager bestätigte am Donnerstag gegenüber Reuters, dass die Einführung voraussichtlich bis Ende 2027 laufen wird. Beginnend in diesem Jahr in den globalen Cloud-Regionen von AWS, wird es zusammen mit erweiterten Kooperationen mit Nvidia im Bereich Netzwerke und andere Infrastruktur umgesetzt, um Systeme zu bauen, die „fähig sind, autonom zu reasoning, planen und handeln in komplexen Workflows“, so AWS, und verweist auf seine Arbeit an agentischen KI-Systemen.

 AWS entwickelt weiterhin KI-Chips sowohl für Training als auch für Inferenz. Die Zusammenarbeit deutet darauf hin, dass sich die Nachfrage im KI-Stack verschiebt, während ein wachsender Anteil der Aktivitäten mit dem Betrieb von Modellen in Live-Diensten verbunden zu sein scheint. Der Deal kommt, während US-Staatsanwälte einen Fall verfolgen, in dem Nvidia-Chips nach China geschmuggelt worden sein sollen, was die globale Versorgung und Kontrolle des Unternehmens erneut in den Fokus rückt. Seit 2022 werden Nvidias fortschrittlichste Chips im Rahmen einer breiteren US-Strategie streng kontrolliert, um Chinas Fortschritte in der Hochleistungsrechnertechnik und KI einzuschränken.

Die heutige Entwicklung könnte diese Lücke noch vergrößern. Veränderungen im Tempo Beobachter sagen, dass die Struktur des Deals Hinweise darauf gibt, wo die Nachfrage wächst und wie sich die zugrunde liegende Infrastruktur immer schneller verändert. „Nvidia wird zur Infrastrukturebene unter den Cloud-Anbietern, nicht nur ein Chip-Hersteller für sie“, sagte Dermot McGrath, Mitbegründer des Strategie- und Wachstumsstudios ZenGen Labs, gegenüber Decrypt. Die Chips im Deal sind auf den Betrieb von KI-Modellen in großem Maßstab ausgerichtet, mit Fokus auf die Senkung der Nutzungskosten, so McGrath, der anmerkt, dass die Inferenz jetzt etwa zwei Drittel der KI-Rechenleistung ausmacht, nach etwa einem Drittel im Jahr 2023. Der Markt für Inferenz-orientierte Chips wird bis 2026 voraussichtlich 50 Milliarden US-Dollar übersteigen, so Deloitte-Schätzungen. AWS kann sowohl Nvidia- als auch eigene Chips in denselben Systemen verwenden, was den Kunden mehr Wahlmöglichkeiten bietet als Konkurrenten, die ihre Chips geschlossen halten, erklärte McGrath. Diese Flexibilität „ist ein Unterscheidungsmerkmal“. „Jetzt macht Nvidia dasselbe eine Ebene tiefer, mit Netzwerken und Rack-Architektur anstelle eines Programmiermodells“, sagte er. Inference-Chips sind Prozessoren, die dafür entwickelt wurden, trainierte KI-Modelle in Echtzeit auszuführen, anstatt sie neu zu trainieren.

Die Nachfrage nach Inferenz treibt „langfristige Verpflichtungen“ für mehr Rechenleistung voran und schafft engere Verbindungen zwischen Cloud-Anbietern und Chip-Herstellern, sagte Pichapen Prateepavanich, Strategieberaterin und Gründerin des Infrastrukturunternehmens Gather Beyond, gegenüber Decrypt. „Cloud-Anbieter wollen langfristig unabhängig sein, aber kurzfristig brauchen sie Nvidia, um wettbewerbsfähig zu bleiben“, erklärte sie und betonte, dass dies eine Dynamik schafft, bei der Kooperation und Wettbewerb gleichzeitig stattfinden. Dennoch verändert sich auch die Kontrolle über die KI-Infrastruktur. Was passiert, ist eine „Infrastruktur-Umkehr“, sagte Berna Misa, Deal-Partnerin bei Boardy Ventures, einem auf KI ausgerichteten Investmentfonds, gegenüber Decrypt. Nvidia „integriert seine komplette Stack-Infrastruktur in Rechenzentren von AWS, die jahrelang proprietäre Geräte betrieben haben“, so Misa. Während AWS eigene KI-Chips entwickelt, „ändert das nichts an der Rechnung“, erklärte sie, und betonte, dass die Inferenz auf mehreren Komponenten im Stack basiert, von denen Nvidia die meisten liefert. „Wenn man so tief im Stack des Kunden ist, werden die Wechselkosten und die daraus resultierende Kontextschicht zur Burgmauer“, sagte sie.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare