El autor original: PonderingDurian, investigador de Delphi Digital
Texto original compilado: Pzai, Foresight News
Dado que la Criptomoneda es, en esencia, software de Código abierto con un mecanismo de incentivos económicos incorporado, y dado que la inteligencia artificial está revolucionando la forma en que se escribe el software, la IA tendrá un gran impacto en todo el campo de la cadena de bloques.
Pila completa de AI x Crypto
En mi opinión, el mayor desafío para DeAI está en la capa de infraestructura, ya que se necesita mucho dinero para construir el modelo subyacente y el retorno a escala de los datos y la computación es alto.
Teniendo en cuenta la ley de la expansión, los gigantes tecnológicos tienen una ventaja natural: en la etapa Web2, han obtenido enormes beneficios de las ganancias monopolísticas que provienen de la agregación de las demandas de los consumidores, y durante una década de tasas artificialmente bajas, han reinvertido esas ganancias en infraestructura en la nube. Ahora, los gigantes de Internet están tratando de dominar el mercado de IA al apoderarse de los datos y el procesamiento (elementos clave de la IA).
Comparación de volumen de tokens de gran escala
Debido a la intensidad de capital y los altos requisitos de ancho de banda del entrenamiento a gran escala, un clúster súper unificado sigue siendo la mejor opción: proporciona modelos cerrados de mejor rendimiento para los gigantes tecnológicos. Planea alquilar estos modelos con ganancias monopolísticas e invertir los ingresos en cada generación de productos posteriores.
Sin embargo, resulta que el foso en el campo de la IA es menos profundo que el efecto de red Web2, y los principales modelos de frontera se están depreciando rápidamente en relación con el campo, especialmente los modelos de frontera de Código abierto como Llama 3.1, que Meta ha adoptado una “política de tierra quemada” y ha invertido decenas de miles de millones de dólares en desarrollar, y su rendimiento ha alcanzado el nivel de SOTA.
Calificación de Modelo Llama 3
En este punto, la investigación emergente sobre los métodos de entrenamiento distribuido de baja latencia podría llevar a la comercialización de modelos de negocio de vanguardia (parcialmente) - con la caída de los precios inteligentes, la competencia se desplaza (al menos parcialmente) desde los superclusters de hardware (favorecidos por los gigantes tecnológicos) hacia la innovación de software (ligeramente favorecida por el código abierto / criptoactivos).
Índice de habilidad (calidad) - Gráfico de distribución de precios de entrenamiento
Dado el rendimiento computacional de la arquitectura de “expertos mixtos” y la síntesis/enrutamiento de modelos grandes, es muy probable que no estemos enfrentando un mundo con solo 3-5 modelos gigantes, sino un mundo compuesto por millones de modelos, con diferentes consideraciones de costos/rendimiento. Es una red inteligente entrelazada (colmena).
Esto plantea un gran problema de coordinación: la cadena de bloques y el mecanismo de incentivos de Activos Cripto deben poder ayudar a resolver este problema de manera efectiva.
El software está devorando el mundo. La IA está devorando el software. Y la IA es básicamente datos y cálculos.
Delphi tiene una buena perspectiva de los diversos componentes en esta pila:
Simplifique la pila de AI x Crypto
Dado que la AI se basa en datos y cálculos, la infraestructura DeAI se compromete a adquirir datos y cálculos de la manera más eficiente posible, y generalmente utiliza un mecanismo de incentivo encriptado. Como mencionamos anteriormente, esta es la parte más desafiante de la competencia, pero dada la escala del mercado final, también puede ser la parte más gratificante.
cálculo
Hasta ahora, el protocolo de entrenamiento distribuido y el mercado de GPU han sido limitados por la latencia, pero esperan coordinar hardware heterogéneo potencial y brindar servicios de cálculo más baratos y bajo demanda para aquellos que han sido excluidos de las soluciones integradas de los gigantes. Empresas como Gensyn, Prime Intellect y Neuromesh están impulsando el desarrollo del entrenamiento distribuido, mientras que empresas como io.net, Akash y Aethir están logrando inferencias de bajo costo más cercanas a la inteligencia periférica para aquellos que han sido excluidos de las soluciones integradas de los gigantes.
Distribución del ecosistema del proyecto basada en la agregación de suministros
datos
En un mundo inteligente omnipresente basado en modelos más pequeños y especializados, el valor y la monetización de los activos de datos están aumentando cada vez más.
Hasta ahora, DEP ha sido ampliamente elogiado en gran medida por su capacidad para construir redes de hardware con costos más bajos en comparación con las empresas intensivas en capital (como las compañías de telecomunicaciones). Sin embargo, el mayor mercado potencial de DEP surgirá en la recopilación de nuevos conjuntos de datos, que fluirán hacia sistemas inteligentes on-chain: el protocolo de agente (se discutirá más adelante).
En este mundo, la fuerza laboral, el mercado potencial más grande del mundo, está siendo reemplazada por datos y cómputo. En este mundo, la infraestructura de IA ofrece una forma para que las personas no técnicas tomen posesión de los medios de producción y contribuyan a la economía en red que se avecina.
El objetivo final de DeAI es lograr una computación efectiva y componible. Al igual que el capital de Finanzas descentralizadas en bloques, DeAI compensa la falta de rendimiento absoluto de hoy en día a través de la componibilidad sin permiso, lo que incentiva a un ecosistema abierto de software y primitivas de computación a través del interés compuesto con el tiempo, con la esperanza de superar el software y las primitivas de computación existentes.
Si Google representa el extremo de la “integración”, entonces DeAI representa el extremo de la “modularidad”. Como advierte Clayton Christensen, en las industrias emergentes, el enfoque de integración a menudo logra una posición de liderazgo al reducir la fricción en la cadena de valor, pero a medida que el campo madura, la cadena de valor modularizada ocupará un lugar al aumentar la competencia y la eficiencia de costos en cada capa del stack.
Integrado vs modular AI
Tenemos mucha confianza en las categorías clave que son fundamentales para lograr esta visión modular.
enrutamiento
En un mundo inteligente y fragmentado, ¿cómo elegir el patrón y el momento adecuados al mejor precio? Los agregadores de demanda siempre han capturado valor (ver teoría de la agregación), y la función de enrutamiento es crucial para optimizar la curva de Pareto entre el rendimiento y el costo en el mundo inteligente de la red.
Bittensor ha estado a la vanguardia en la primera generación de productos, pero también ha enfrentado mucha competencia especializada.
Allora organiza competiciones entre diferentes modelos en diferentes ‘temas’ de una manera que es consciente del contexto y se perfecciona con el tiempo, y proporciona información para predecir el futuro según la precisión histórica bajo condiciones específicas.
El objetivo de Morpheus es convertirse en el “enrutador de demanda” para los casos de uso de Web3, esencialmente un proxy local con Código abierto que puede entender el contexto relevante del usuario y realizar consultas efectivas a través de la infraestructura emergente de Finanzas descentralizadas o “cómputo componible” de Web3, conocido como “Apple Intelligence”.
El protocolo de interoperabilidad del agente, como Theoriq y Autonolas, tiene como objetivo llevar las rutas modulares al máximo, permitiendo que los agentes o componentes flexibles formen un ecosistema componible y compuesto que sea un servicio completamente maduro en la cadena.
En resumen, en un mundo inteligente y rápidamente fragmentado, el agregador de oferta y demanda desempeñará un papel extremadamente poderoso. Si Google es una empresa valuada en 2 millones de dólares que indexa información para el mundo entero, entonces el ganador del enrutador de demanda, ya sea Apple, Google o una solución Web3, será la empresa que actúe como un agente de indexación inteligente y producirá una escala aún mayor.
Coprocesador
Dado su carácter descentralizado, la cadena de bloques se ve limitada en cuanto a datos y cálculos. ¿Cómo podemos introducir aplicaciones de IA intensivas en datos y cálculos que los usuarios necesitan en la cadena de bloques? ¡Con un coprocesador!
El coprocesador en Crypto en la Capa de aplicación
Ellos todos proporcionan diferentes tecnologías para “verificar” los datos básicos o modelos utilizados de manera efectiva “Máquina de oráculo”, de esta manera se puede minimizar al máximo las nuevas suposiciones de confianza on-chain, al mismo tiempo que se aumenta significativamente su capacidad. Hasta ahora, muchos proyectos han utilizado zkML, opML, TeeML y métodos de encriptación económica, cada uno con sus propias ventajas y desventajas:
Comparación de coprocesadores
En un nivel superior, los coprocesadores son crucial para la inteligencia de los contratos inteligentes, proporcionando soluciones similares a un “almacén de datos” para consultas más personalizadas en la cadena, o verificar si se completó correctamente un razonamiento dado.
Las redes de TEE (Ejecución Confiable), como Super, Phala y Marlin, han ganado popularidad recientemente debido a su utilidad y capacidad para soportar aplicaciones a gran escala.
En general, los coprocesadores son fundamentales para integrar blockchain de alto determinismo pero bajo rendimiento con agentes inteligentes de alto rendimiento pero probabilísticos. Sin coprocesadores, la inteligencia artificial no aparecería en esta generación de blockchain.
Incentivos para desarrolladores
Uno de los mayores problemas del desarrollo de AI de código abierto es la falta de un mecanismo de incentivo que lo haga sostenible. El desarrollo de AI es altamente intensivo en capital y los costos de oportunidad de la computación y el trabajo de conocimiento de AI son muy altos. Si no hay medidas de incentivo adecuadas para recompensar las contribuciones al código abierto, este campo inevitablemente perderá frente a la supercomputadora del supercapitalismo.
Desde Sentiment hasta Pluralis, Sahara AI y Mira, el objetivo de estos proyectos es lanzar redes que permitan a las personas dispersas contribuir a la inteligencia de red y recibir incentivos adecuados.
A través de la compensación en el modelo de negocio, la velocidad de interés compuesto de Código abierto debería acelerarse, lo que proporciona a los desarrolladores y investigadores de IA una opción global fuera de las grandes empresas de tecnología y ofrece la posibilidad de obtener una recompensa generosa según el valor creado.
Aunque es muy difícil lograrlo y la competencia es cada vez más intensa, el mercado potencial aquí es enorme.
Modelo GNN
Los grandes modelos de lenguaje dividen los patrones y aprenden a predecir la siguiente palabra en grandes bibliotecas de texto, mientras que las redes neuronales gráficas (GNN) manejan, analizan y aprenden datos de estructuras de gráficos. Dado que los datos on-chain están compuestos principalmente por interacciones complejas entre los usuarios y los contratos inteligentes, en otras palabras, un gráfico, parece que GNN es una elección razonable para admitir casos de uso de IA on-chain.
Proyectos como Pond y RPS están tratando de establecer modelos básicos para web3, que podrían ser aplicados en casos de uso como transacciones, Defi e incluso redes sociales, como:
Estos modelos utilizarán ampliamente soluciones de almacén de datos como Space and Time, Subsquid, Covalent y Hyperline, entre otros, y también tengo grandes expectativas en ellos.
GNN puede demostrar que los modelos grandes de blockchain y los almacenes de datos de Web3 son herramientas auxiliares indispensables, proporcionando funciones OLAP (procesamiento analítico en línea) para Web3.
Aplicación
En mi opinión, los Agentes on-chain pueden ser la clave para resolver el conocido problema de experiencia de usuario de Activos Cripto, pero lo más importante es que en los últimos diez años hemos invertido miles de millones de dólares en infraestructuras de Web3, pero la tasa de utilización de la demanda es muy baja.
No te preocupes, los Agentes están aquí…
AI en las pruebas de puntuación en todas las dimensiones del comportamiento humano subir
También parece lógico que estos agentes aprovechen una infraestructura abierta y sin permisos que abarque los pagos y la computación componible para lograr un objetivo final más complejo. En la próxima economía inteligente en red, la movilidad económica ya no puede ser B-> B->C, sino una red informática > agente > usuario, > un > agente. El resultado final de este flujo es proxy protocolo. Las empresas basadas en aplicaciones o servicios tienen una sobrecarga limitada, se ejecutan principalmente en recursos en cadena y son mucho menos costosas para satisfacer las necesidades de los usuarios finales (o entre sí) en una red componible que las empresas tradicionales. De la misma manera que Capa de aplicación de Web2 captura la mayor parte de su valor, también soy un gran admirador de la teoría del “protocolo proxy gordo” en DeAI. Con el tiempo, la captura de valor debe desplazarse a las capas superiores de la pila.
Acumulación de valor en la inteligencia artificial generativa
El próximo Google, Facebook y Blackrock probablemente serán protocolos intermediarios, y los componentes que implementan estos protocolos están surgiendo.
La IA cambiará nuestra forma económica. Actualmente, se espera que la captura de este valor se limite a unas pocas grandes compañías en la costa oeste de América del Norte. Sin embargo, DeAI representa una visión diferente. Una visión de una red inteligente abierta y componible, donde incluso las contribuciones mínimas son recompensadas, y hay más propiedad/administración colectiva.
Aunque algunas afirmaciones de DeAI son exageradas y muchos proyectos tienen precios de transacción mucho más altos que el impulso real actual, la escala de oportunidades es objetiva. Para aquellos que tienen paciencia y visión, la visión final de DeAI como un cálculo verdaderamente combinable puede demostrar la racionalidad de la cadena Bloquear en sí misma.