Ark Invest: Estado actual y futuro de la infraestructura de IA

来源:Frank Downing,Ark Invest;编译:金色财经Claw

Gastos en infraestructura de IA crecen de manera explosiva

Desde el lanzamiento de ChatGPT, la demanda de computación acelerada ha crecido de manera explosiva. Los ingresos anuales de Nvidia se dispararon casi 8 veces, de 27 mil millones de dólares en 2022 a 216 mil millones de dólares en 2025, y se espera que crezcan un 62% más en 2026, alcanzando los 350 mil millones de dólares. La tasa de inversión en sistemas de centros de datos globales (incluyendo hardware de computación, redes y almacenamiento) se ha acelerado del 5% anual en la última década hasta un 30% en los últimos tres años, y se prevé que crezca más de un 30% en 2026, alcanzando los 653 mil millones de dólares.

La investigación de ARK muestra que la computación acelerada, impulsada por GPU y circuitos integrados específicos de aplicaciones (ASIC) (en comparación con las CPU generales), ahora domina la inversión en servidores, representando el 86% de las ventas de servidores de computación.

La drástica reducción de costos impulsa la adopción de la aceleración

El impulso detrás del aumento continuo en el gasto en infraestructura de computación acelerada necesaria para ejecutar modelos de IA proviene de la expansión constante de los casos de uso de la IA generativa en el sector de consumo y empresarial, así como de la necesidad de entrenar modelos base más inteligentes en la búsqueda de “superinteligencia”.

La rápida disminución de costos está acelerando aún más el crecimiento de la demanda. Según nuestra investigación, los costos de entrenamiento de IA disminuyen un 75% cada año. Los costos de inferencia disminuyen aún más rápido: en las pruebas de referencia rastreadas por Artificial Analysis, los modelos que obtienen más del 50% de puntuación tienen una disminución anual de costos mediana de hasta el 95%.

Dos fuerzas están impulsando conjuntamente la drástica disminución de costos: primero, los líderes de la industria, como Nvidia, lanzan nuevos productos cada año, ofreciendo mejoras de rendimiento de hardware de generación en generación; segundo, las mejoras algorítmicas en el software están aumentando continuamente la eficiencia del entrenamiento y la inferencia en el mismo hardware.

Los consumidores y las empresas envían señales de demanda fuerte

La velocidad a la que los consumidores adoptan la IA es notablemente más rápida que la velocidad de adopción de Internet en su momento. La tasa de adopción de IA se ha expandido a aproximadamente el 20% en tres años, más del doble de la velocidad a la que los consumidores se movieron hacia Internet.

La demanda empresarial también ha crecido a un ritmo sorprendente. Según los datos de OpenRouter, desde diciembre de 2024, la demanda de tokens ha crecido 28 veces.

En los últimos dos años, el laboratorio de IA más popular entre los clientes empresariales, Anthropic, ha logrado un asombroso crecimiento de ingresos de aproximadamente 100 veces, pasando de 100 millones de dólares en ingresos operativos anuales a finales de 2023, a una estimación de entre 8 y 10 mil millones de dólares a finales de 2025. Anthropic ha continuado su impulso en 2026, anunciando en febrero de este año ingresos anuales de 14 mil millones de dólares y completando una ronda de financiación de 30 mil millones de dólares, alcanzando una valoración de 380 mil millones de dólares.

OpenAI, compitiendo en ambas líneas de frente, tanto con consumidores como con empresas, también ha visto un fuerte crecimiento, alcanzando un millón de clientes empresariales para noviembre de 2025. Según la CFO Sarah Friar, el crecimiento de los ingresos empresariales de OpenAI supera al de su negocio de consumo, y se espera que en 2026 represente el 50% de los ingresos totales de la empresa. Friar también explicó en un blog en enero de 2026 las razones para invertir más en infraestructura: en los últimos tres años, los ingresos de OpenAI han crecido en proporción directa a su capacidad de computación.

Los mercados privados financian la construcción de IA

Para satisfacer la fuerte señal de demanda, la inversión masiva en infraestructura se ha vuelto necesaria. Según datos de Crunchbase, la financiación privada para laboratorios de IA superará los 200 mil millones de dólares en 2025, de los cuales alrededor de 80 mil millones de dólares se destinarán a desarrolladores de modelos base como OpenAI, Anthropic y xAI. En el mercado público, las empresas de computación en la nube de gran escala están utilizando reservas de efectivo y buscando otras formas de financiamiento para respaldar sus planes de gastos de capital en IA, que podrían alcanzar hasta 700 mil millones de dólares en 2026.

Se informa que el acuerdo de 30 mil millones de dólares entre Meta y Blue Owl es la transacción de capital privado más grande de la historia. Este acuerdo se estructura como una empresa conjunta, principalmente financiada por deuda, cuya estructura de vehículo de propósito especial (SPV) evitará que la deuda del proyecto se refleje en el balance de Meta, lo que ha generado una considerable controversia.

AMD y otros fabricantes se convierten en competidores serios de Nvidia

Fuera de los centros de datos físicos, los chips de computación han sido el núcleo del gasto de capital en IA. Nvidia ha estado a la vanguardia de la era de la computación acelerada, pero ahora los principales compradores de chips de IA están tratando de maximizar la capacidad de computación de IA por cada dólar invertido. Desde la adquisición de ATI Technologies en 2006, Advanced Micro Devices (AMD) ha competido con Nvidia en el mercado de consumo de GPU y ahora se ha convertido en un nuevo competidor en el mercado empresarial. Desde el lanzamiento de la serie de procesadores EPYC en 2017, la participación de AMD en el mercado de CPU de servidores ha crecido del casi cero en 2017 al 40% en 2025.

En términos de inferencia de modelos pequeños, los GPU de AMD están a la par con Nvidia en costo total de propiedad (TCO) relativo. TCO considera tanto el costo de adquisición inicial del chip (gasto de capital) como los costos operativos del chip durante su vida útil (gasto operativo). Las pruebas de rendimiento utilizan el indicador InferenceMax de SemiAnalysis, que mide el número de tokens procesados por segundo por cada GPU optimizada para el rendimiento de rendimiento, mientras que la referencia de costos utiliza las estimaciones de SemiAnalysis sobre el gasto de capital y el gasto operativo por hora.

A pesar de que AMD ha “alcanzado” el rendimiento de modelos pequeños, Nvidia sigue manteniendo una ventaja significativa en el rendimiento de modelos grandes, como se muestra en la siguiente figura.

La solución de nivel de rack de Nvidia, Grace Blackwell, conecta 72 GPUs Grace Blackwell (GB200) para operar como una GPU de gran tamaño con memoria compartida. Esta estrecha interconexión entre chips refuerza la capacidad de inferencia de modelos grandes, que requieren distribuir los pesos del modelo entre múltiples GPUs, lo que requiere más ancho de banda de comunicación que los modelos pequeños. Para reducir la brecha antes del lanzamiento de Nvidia Vera Rubin, la solución de nivel de rack de AMD está programada para lanzarse en la segunda mitad de 2026. Hasta ahora, AMD ha ganado pedidos de clientes como Microsoft, Meta, OpenAI, xAI y Oracle.

Los proveedores de nube de gran escala lideran la revolución de chips personalizados

Además de los proveedores de GPU comerciales, los proveedores de nube de gran escala y los laboratorios de IA también buscan controlar la influencia de Nvidia y reducir los costos de computación de IA mediante el desarrollo de sus propios chips. Durante más de diez años, Google ha estado diseñando sus propios circuitos integrados específicos de IA, conocidos como unidades de procesamiento tensorial (TPU), para ejecutar modelos de recomendación para su negocio de búsqueda, y ha optimizado el rendimiento en la última generación de TPU v7 para la IA generativa. SemiAnalysis estima que Google puede reducir el costo por cálculo en un 62% al manejar cargas de trabajo internas con TPU de desarrollo propio, en comparación con Nvidia. Anthropic y Meta están utilizando TPU de Google para ampliar su capacidad de computación, lo que podría confirmar que la estimación del 62% se alinea estrechamente con la realidad.

El chip Trainium de Amazon parece ser una solución de próxima generación. Después de adquirir Annapurna Labs en 2015, Amazon fue pionera en el desarrollo de chips personalizados para su negocio en la nube, expandiendo la CPU Graviton basada en la arquitectura ARM y la unidad de procesamiento de datos Nitro (DPU), que respalda la capacidad de computación importante de Amazon Web Services (AWS). Amazon anunció recientemente que Graviton ha proporcionado más de la mitad de la nueva capacidad de CPU de AWS durante tres años consecutivos hasta 2025. Además de utilizar TPU, Anthropic también prefiere AWS y Trainium como su plataforma de entrenamiento.

Microsoft entró en el campo de los chips personalizados en 2023 con su acelerador de IA Maia 100, pero en ese momento no se centró en la IA generativa; actualmente, su segunda generación de productos se está lanzando, enfocándose en escenarios de inferencia de IA.

Broadcom domina el mercado de servicios de chips personalizados

Google y Amazon se centran en el diseño de chips frontales (arquitectura y funcionalidad), mientras que los socios de diseño posterior son responsables de transformar su lógica en obleas de silicio, gestionar empaquetados avanzados y coordinar la producción con fábricas de semiconductores como TSMC. En el contexto de los desafíos que enfrenta Intel en su negocio de fabricación de obleas, TSMC se ha convertido en el socio preferido para la mayoría de los principales proyectos de chips de IA, mientras que Broadcom se ha convertido en el principal socio de diseño posterior para el TPU de Google, el MTIA de Meta y el chip personalizado que OpenAI lanzará en 2026. Apple tradicionalmente completa todo el proceso de diseño de sus chips para teléfonos y PC, pero se informa que también podría estar colaborando con Broadcom en el desarrollo de chips de IA. Citi predice que los ingresos de IA de Broadcom podrían crecer cinco veces en los próximos dos años, de 20 mil millones de dólares en 2025 a 100 mil millones de dólares en 2027.

El camino de desarrollo del Trainium de Amazon es bastante singular entre sus pares: se informa que Trainium 2 colaboró con Marvell, pero luego, debido a la mala ejecución de Marvell, Trainium 3 y Trainium 4 se asociaron con Alchip. La capacidad de Amazon para cambiar de socio posterior indica que la integración vertical presenta ciertos riesgos para empresas como Broadcom. Es importante señalar que Apple y Tesla colaboran directamente con fábricas de semiconductores. Google también podría hacer lo mismo con su TPU v8: este producto tiene dos SKU, uno co-diseñado con Broadcom y el otro diseñado y controlado de forma independiente por Google con el apoyo de MediaTek.

Aumento de la actividad de startups de chips

Nuestra investigación sugiere que un grupo de startups que intentan nuevos paradigmas de arquitectura podría desafiar aún más la posición de mercado de los fabricantes de chips existentes. Cerebras es conocido por su motor de obleas, un gigantesco chip del tamaño de una caja de pizza hecho de una sola oblea de silicio, que ofrece la velocidad de procesamiento de tokens por segundo más rápida del mercado y que se informa que planea salir al mercado este año. La compañía anunció recientemente una colaboración con OpenAI para lanzar el modelo de programación de alta velocidad Codex Spark, después de que ambas partes alcanzaran un acuerdo de colaboración en enero de este año. Groq también ha destacado por su excepcional velocidad de procesamiento de tokens por segundo, y recientemente firmó un acuerdo de licencia de propiedad intelectual no exclusiva por valor de 20 mil millones de dólares con Nvidia, que incluye al 90% de los empleados de Groq, así como al CEO y cofundador de TPU, Jonathan Ross. Esto es, de hecho, una adquisición del equipo y la tecnología de Groq, una estructura de transacción que está ganando popularidad en el mercado de fusiones y adquisiciones, ya que los gigantes tecnológicos buscan evitar retrasos debido a revisiones regulatorias. En otras dinámicas de adquisición, Intel recientemente estableció una colaboración con SambaNova después de que se informara que fracasaron las negociaciones de adquisición. Desde 2014, Intel ha realizado cuatro adquisiciones en el campo de la IA, pero nunca ha logrado lanzar un producto de IA ampliamente reconocido en el mercado, lo cual es bastante lamentable.

Mirando hacia el futuro: el mercado alcanzará 1.4 billones de dólares en 2030

Según nuestra investigación, el crecimiento continuo de la demanda y la mejora constante del rendimiento en los próximos cinco años impulsarán el desarrollo de software de IA y servicios en la nube, y el gasto en infraestructura de IA se triplicará en los próximos cinco años, aumentando de 500 mil millones de dólares en 2025 a casi 1.5 billones de dólares en 2030.

Nuestras proyecciones se basan en la observación histórica de la inversión en sistemas de centros de datos en relación con los ingresos de software. A principios de la década de 2010, con el auge de la computación en la nube, la inversión en sistemas representaba aproximadamente el 50% del gasto mundial en software. Para 2021, la sobreinversión posterior a la pandemia de COVID-19 y la optimización del cliente hicieron que la proporción de inversión en sistemas en relación con el gasto en software cayera a poco más del 20%. Nuestra proyección de 1.5 billones de dólares asume que la inversión en 2030 será del 20% de nuestro escenario neutral de gasto global en software (es decir, 7 billones de dólares en 2030), proporción que detallamos en un blog del año pasado. Creemos que el nivel del 20% considera adecuadamente los riesgos de sobreinversión potencial antes de 2030 y la posibilidad de que el crecimiento de los ingresos de software sea más lento que en el escenario neutral; en este último caso, consideramos que la inversión en infraestructura continuará creciendo a un ritmo acelerado, como fue el caso a principios de la década de 2010.

A medida que la demanda de capacidad de computación impulsada por la IA continúa creciendo, esperamos que la proporción de chips personalizados en el gasto de computación siga aumentando, ya que el tiempo y la inversión necesarios para diseñar chips para cargas de trabajo específicas se reflejarán en una ventaja de rendimiento por dólar cada vez más importante a medida que se escalen. Creemos que para 2030, la participación de ASIC personalizados en el mercado de computación podría superar un tercio.

En resumen, nuestra investigación sugiere que la construcción de infraestructura actual no es una burbuja que esté a punto de estallar, sino la base de una transformación de nivel de plataforma sin precedentes. ARK pronostica que el gasto anual en infraestructura de IA alcanzará cerca de 1.5 billones de dólares en 2030, impulsado por la demanda real y acelerada de consumidores y empresas, mientras que los costos en constante disminución continúan validando y liberando nuevos casos de uso. Creemos que las empresas que sobresalgan en los próximos cinco años serán aquellas que puedan diseñar los chips más eficientes, construir los modelos más potentes y desplegar ambos a gran escala.

Como señaló el CEO de Nvidia, Jensen Huang, durante la conferencia telefónica de resultados del cuarto trimestre del año fiscal 2026, los verdaderos agentes de IA prácticos apenas han comenzado a implementarse a gran escala en los últimos meses. Su consumo de tokens es enorme, pero sus capacidades superan con creces los productos de IA a los que la mayoría de los usuarios estaban acostumbrados anteriormente. Ampliar estos agentes a millones de empresas será un trabajo extremadamente intensivo en computación y, en nuestra opinión, el aumento de productividad resultante definitivamente justificará estas inversiones.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado