** El 10 de diciembre, Google anunció la última generación de chips cuánticos: Willow, que causó sensación en la comunidad tecnológica mundial, e incluso Musk exclamó “¡Guau!”. **
¿Dónde radica la potencia del chip Willow? ¿Cuán lejos está la producción a gran escala?
1 La última generación de chips cuánticos Willow de Google explota, con el mayor avance en su capacidad de cálculo y corrección de errores
Para una tarea base llamada ‘Muestreo de circuitos aleatorios’, la computadora más rápida actualmente necesita 10 ^ 25 años para resolverlo, mucho más tiempo que la edad del universo (26.7 billones de años), mientras que Willow puede completar esta tarea en menos de 5 minutos.
La computación cuántica tiene el potencial de aumentar drásticamente la velocidad de la computación para tareas específicas, superando a las computadoras clásicas, lo que se conoce como “superioridad cuántica”. Ya en 2019, Google comprobó este hecho, publicado en Nature, demostrando que utilizaba un ordenador cuántico de 54 qubits, Sycamore, para lograr una tarea que los ordenadores de arquitectura tradicional no podían hacer: en un experimento en el que el primer superordenador del mundo necesita calcular durante 10.000 años, Sycamore solo tardó 3 minutos y 20 segundos. En ese momento, el CEO de Google, Sundar Pichai, dijo que este era el tan esperado “Hola Mundo” por parte de los investigadores, y que era el hito más significativo en la aplicación práctica de la computación cuántica en ese momento.
El lanzamiento de Willow sin duda es otro evento emblemático en el campo de la computación cuántica.
Sin embargo, ‘rápido’ no es la única mejora más destacada de Willow.
La mayor característica destacada de Willow es su capacidad de corrección de errores súper fuerte.
En el pasado, los chips cuánticos en el proceso de procesamiento de datos, debido a la fragilidad de los estados cuánticos, son susceptibles a interferencias ambientales y experimentan fenómenos de decoherencia, lo que lleva a errores en el estado de los qubits cuánticos. Por lo tanto, a pesar de tener una ‘ventaja cuántica’, las computadoras cuánticas son susceptibles a las influencias ambientales y son propensas a errores. Por lo general, cuanto más qubits cuánticos hay, más errores ocurren.
Por lo tanto, la ‘corrección cuántica’ se ha convertido en una tecnología clave. Los chips cuánticos requieren una tecnología especial de corrección cuántica, lo cual también es un desafío importante en este campo y ha restringido seriamente la aplicación y el desarrollo de la computación cuántica.
El chip Willow ha resuelto con éxito el difícil problema de corrección de errores cuánticos que ha desconcertado a los investigadores durante casi 30 años, logrando una reducción exponencial en la tasa de error. La investigación de Google indica que cuanto más se utilicen los qubits cuánticos en Willow, menor será la tasa de error del sistema.
A medida que aumenta el número de qubits, desde una matriz de 3x3 hasta una matriz de 5x5 y luego a una matriz de 7x7 en el experimento del chip Willow de Google, cada expansión logra reducir la tasa de error de codificación en un factor de 2.14, y la tasa de error disminuye cada vez más rápido.
2. ¿Qué es la computación cuántica? ¿Por qué es tan poderosa?
En 1935, el físico austriaco Erwin Schrödinger propuso un experimento mental fascinante: colocar un gato en una caja junto con una sustancia radiactiva. Existe un 50% de probabilidad de que la sustancia radiactiva se desintegre y libere gas venenoso, matando al gato, y un 50% de probabilidad de que la sustancia radiactiva no se desintegre y el gato sobreviva. Antes de abrir la caja, nadie sabe si el gato está vivo o muerto, solo se puede describir como estar en un estado de superposición de vida y muerte.
El mundo cuántico, al igual que el ‘gato de Schrödinger’, se encuentra en un estado superpuesto de incertidumbre; la teoría computacional correspondiente es la ‘computación cuántica’, y en el nivel de hardware se manifiesta como chips y computadoras cuánticas.
La computación cuántica presenta dos ventajas:
En primer lugar, una gran capacidad de almacenamiento de datos. La computación clásica se basa en bits como unidad básica, mientras que la computación cuántica se basa en qubits como unidad básica.
En la computación clásica, el estado de un bit es determinado, ya sea 0 o 1; mientras que en la computación cuántica, el bit cuántico se encuentra en un estado superpuesto de 0 y 1, lo que significa que puede almacenar simultáneamente 0 y 1.
Un chip tradicional con n bits puede almacenar n datos simultáneamente, mientras que un chip con n qubits puede almacenar 2^n datos al mismo tiempo.
Segundo, muestra una poderosa capacidad de cálculo en paralelo para problemas específicos.
Las computadoras electrónicas tradicionales realizan cálculos secuenciales, convirtiendo un solo valor en otro valor en cada operación, lo que significa que deben realizarse en orden. En cambio, las computadoras cuánticas pueden convertir simultáneamente 2^n datos en otros nuevos 2^n datos con una sola operación.
3. ¿Puede el futuro chip cuántico reemplazar a la GPU y promover el desarrollo de la IA?
La tecnología de inteligencia artificial y diversas aplicaciones se han desarrollado rápidamente en los últimos años, y la demanda de potencia informática también ha aumentado exponencialmente.
En teoría, la capacidad de procesamiento paralelo de la computación cuántica le otorga una ventaja natural en el manejo de algoritmos de inteligencia artificial complejos, lo que puede aumentar significativamente la velocidad y precisión del entrenamiento del modelo. La aparición del chip Willow podría brindar un poder de cálculo poderoso para el avance continuo de la inteligencia artificial.
De hecho, las GPU que ahora se utilizan ampliamente en IA originalmente se diseñaron para acelerar el procesamiento gráfico. Por ejemplo, el renderizado de escenas 3D en juegos, modelado y procesamiento de efectos especiales en la producción de animaciones, efectos visuales en la producción cinematográfica, etc. Sin embargo, debido a su potente capacidad de cálculo, las GPU luego se aplicaron ampliamente en el campo de la computación científica y la inteligencia artificial, especialmente en la etapa de entrenamiento e inferencia de redes neuronales en el aprendizaje profundo, mostrando un rendimiento sobresaliente en el procesamiento de conjuntos de datos a gran escala y tareas de cálculo altamente paralelas.
Desde esta perspectiva, los chips cuánticos también se desarrollarán gradualmente en el futuro, rompiendo las limitaciones de cálculo y acelerando el proceso de entrenamiento de diversos algoritmos de aprendizaje automático de IA. Los chips cuánticos actualmente se utilizan principalmente en áreas específicas que requieren una alta complejidad de cálculo, como el descifrado de algoritmos de cifrado en criptografía (por ejemplo, una amenaza potencial para los métodos de cifrado tradicionales basados en el algoritmo RSA), la simulación de sistemas cuánticos (simulación de propiedades físicas y químicas a nivel cuántico de moléculas, materiales, etc.), y la resolución de problemas de optimización complejos (como la planificación logística y la asignación de recursos en problemas complejos de optimización combinatoria), entre otros. En estos campos, las ventajas de la computación cuántica pueden ser plenamente aprovechadas y pueden resolver tareas que las computadoras tradicionales no pueden completar en un tiempo aceptable.
El crecimiento de la capacidad de cálculo de los chips cuánticos está principalmente relacionado con el aumento en la cantidad y la calidad de los qubits cuánticos. En el futuro, con un mayor número de qubits cuánticos, la capacidad de cálculo de las computadoras cuánticas crecerá de forma exponencial. Cada vez que se agrega un qubit cuántico, el número de combinaciones posibles de estados se duplica. Por ejemplo, 2 qubits cuánticos tienen 4 combinaciones de estados, 3 qubits cuánticos tienen 8 combinaciones de estados, y así sucesivamente. Al mismo tiempo, la calidad de los qubits cuánticos (como el tiempo de coherencia, la fidelidad, etc.) también tiene un impacto importante en la capacidad de cálculo. Los qubits cuánticos de alta calidad pueden mantener de manera más efectiva los estados cuánticos, lo que permite realizar cálculos más precisos y complejos.
Sin embargo, a corto plazo, los chips cuánticos difícilmente pueden desafiar el dominio de las GPUs. Los chips cuánticos tienen una capacidad de cálculo más fuerte que las GPUs y teóricamente podrían reemplazarlas. Sin embargo, lo más importante del dominio de las GPUs no es solo su capacidad de cálculo, sino también su arquitectura programable, ventajas en el ecosistema de desarrollo, tecnología de fabricación y madurez de la industria.
**La arquitectura programable y el ecosistema de desarrolladores de GPU son las principales barreras. ** Nvidia ha allanado el camino durante más de 10 años de la “revolución informática de IA” desencadenada por las GPU.
CUDA (Compute Unified Device Architecture) es la primera plataforma de arquitectura de programación de GPU desarrollada por NVIDIA en 2006. Su valor radica en la creación de un ecosistema de desarrolladores de GPU, donde los ingenieros de algoritmos pueden aprovechar las capacidades de las GPU según sus necesidades, lo que ha ampliado los campos de aplicación de las GPU desde la renderización de gráficos hasta áreas generales.
Si se desarrolla nuevo software basado en hardware nuevo (como chips cuánticos), es necesario lograr la compatibilidad hacia adelante, pero los principales software de IA existentes dependen en su mayoría de la plataforma CUDA, por lo que desvincularse de la arquitectura CUDA conlleva costos elevados. Además, debido al efecto barrera de entrada de la comunidad de desarrollo, muchos desarrolladores de alto rendimiento en computación han acumulado experiencia de desarrollo en el ecosistema CUDA, que tiene millones de descargas al año, por lo que migrar a otros modelos de programación llevará una década de trabajo.
La tecnología de fabricación de chips de GPU y la cadena industrial están maduras, con un amplio mercado de consumo y un ciclo de la industria positivo.
La GPU ha existido durante 25 años desde su creación. Los escenarios comerciales aguas abajo, como PC personal, desarrollo personalizado y centros de datos de IA, han estado en uso comercial durante 10 a 30 años. Actualmente, el ciclo de desarrollo de GPU, desde la aprobación del chip hasta la producción en masa, lleva un año, y el desarrollo de equipos de litografía y la iteración de procesos de fabricación de obleas están vinculados principalmente al desarrollo de GPU. Esta cadena de suministro sólida es difícil de romper después de más de una década de ciclo positivo.
Sin embargo, la fabricación de chips cuánticos y la cadena de suministro de GPU son difíciles de superponer. El diseño y la ingeniería de fabricación de chips cuánticos son extremadamente complejos, requieren un entorno experimental altamente puro, tecnología de control cuántico precisa y bits cuánticos estables, por lo que durante mucho tiempo solo unas pocas empresas tecnológicas líderes han estado ‘luchando en solitario’, y aún no se ha formado una cadena de suministro industrial madura. Por lo tanto, a corto plazo, lograr la producción en masa de chips cuánticos y su aplicación comercial es un gran desafío.
4. El área más afectada por los chips cuánticos: criptomonedas y “HPC+AI”
4.1 Chips cuánticos o la “némesis” de las criptomonedas
Tomando Bitcoin como ejemplo, su seguridad se basa en dos mecanismos clave. Uno es el mecanismo de “minería”, donde la producción de Bitcoin se basa en la Prueba de Trabajo, que depende de las funciones hash. Cuanto mayor sea la tasa de hash, mayor será la probabilidad de éxito en la minería. El segundo es la firma de transacción, basada en el algoritmo de firma digital de curva elíptica (ECDSA), que actúa como la “identidad de la billetera” del usuario. El diseño de estos dos mecanismos hace que Bitcoin sea prácticamente imposible de descifrar utilizando la computación tradicional, pero los chips cuánticos representarán una amenaza directa para Bitcoin.
Uno es el violento descifrado del mecanismo de “minería” por parte de la computación cuántica. Los algoritmos de la computación cuántica pueden acelerar el cálculo de las funciones hash, es decir, acelerar la velocidad de la minería, y superar a todos los dispositivos tradicionales anteriores. El resultado es un aumento en la tasa de éxito de la minería, un repentino aumento en el suministro de criptomonedas, lo que provoca grandes fluctuaciones en el precio del mercado. El 10 de diciembre, el precio del Bitcoin cayó de 100,000 a 94,000 dólares. Según los datos de Coinglass, del 10 al 12 de diciembre, un total de 237,000 personas fueron liquidadas.
La segunda es la amenaza directa de la computación cuántica a las firmas de transacciones. **Existen dos tipos de credenciales para las transacciones de criptomonedas, la “clave pública” y la “clave privada”, la primera es equivalente al número de la tarjeta bancaria, y la segunda es equivalente a la contraseña de la billetera. Normalmente, la divulgación de la dirección de clave pública no afecta a la seguridad de los fondos del usuario, pero la computación cuántica puede utilizar la clave pública para descifrar la firma y falsificar la transacción. Por ejemplo, el algoritmo Shor en computación cuántica, que está diseñado específicamente para resolver los problemas de factorización de factores primos y logaritmos discretos de números enteros grandes, supondrá una seria amenaza para las firmas de transacciones.
Aunque Willow representa poca amenaza para Bitcoin en este momento, es muy probable que las criptomonedas sean rotas por la computación cuántica en el futuro. En teoría, un ataque a la firma y al mecanismo de minería de Bitcoin requeriría millones de qubits físicos, lo que sigue siendo una gran brecha con respecto a los 105 qubits físicos que Willow tiene actualmente. Pero si Willow itera como una GPU de propósito general y logra la producción en masa y los saltos de potencia de cómputo, entonces no es imposible que Bitcoin sea “atacado” en la próxima década.
4.2 Los chips cuánticos impulsarán la combinación de HPC y AI y promoverán el desarrollo de la inteligencia artificial avanzada.
Según la clasificación de OpenAI sobre la inteligencia artificial, desde el nivel L1 (Chatbot) hasta el nivel L5 (AGI), el desarrollo actual de modelos de inteligencia artificial solo se encuentra en la transición de los niveles L1 a L2. La AGI de nivel L5 se define como tener la capacidad a nivel organizativo para juzgar, razonar, predecir y planificar acciones en entornos dinámicos y complejos del mundo real. La industria considera que “HPC+AI” será un paso clave para lograr la AGI.
La computación de alto rendimiento (HPC) se refiere al uso de una potente capacidad de computación para resolver problemas científicos, de ingeniería y tecnológicos, que en cierta medida son similares a los actuales modelos de inteligencia artificial (IA), pero con diferentes direcciones y enfoques.
La HPC se centra en la “resolución de problemas complejos”, como la aplicación de superordenadores en meteorología, física, astronomía y otros campos, lo que ha supuesto importantes avances en la investigación científica.
Los modelos de IA se centran en la ‘inferencia y generación’, y aunque no son buenos para resolver modelos complejos, son altamente versátiles.
La implementación de chips cuánticos es un avance revolucionario en el campo de HPC. Ya no es necesario recurrir a cálculos intensivos de HPC durante largos períodos de tiempo para resolver problemas complejos. En cambio, se puede avanzar en una nueva dirección: combinarlos con la IA para realizar entrenamientos generales más complejos.
Uno de los problemas es que el entrenamiento tradicional de IA no puede manejar datos de qubits, mientras que la computación cuántica puede optimizar modelos de aprendizaje que no se pueden manejar con cálculos tradicionales y construir modelos de sistema sensibles a fenómenos cuánticos. Es decir, los modelos de IA del futuro tendrán la capacidad de razonar y predecir el mundo complejo, reduciendo o incluso eliminando la ‘ilusión de IA’ en comparación con los modelos actuales.
La segunda ventaja es la tecnología de corrección de errores cuánticos, el chip Willow supera el desafío clave de la corrección de errores cuánticos, logrando una reducción significativa en la tasa de error. La aplicación de la tecnología de corrección de errores cuánticos en el entrenamiento de IA de alto nivel puede garantizar la precisión y confiabilidad del modelo en el entrenamiento y el procesamiento de grandes cantidades de datos complejos, reduciendo los errores de cálculo causados por la fragilidad de los bits cuánticos, lo que mejora la efectividad y la confiabilidad del entrenamiento de IA.
Aunque el entrenamiento actual de IA aún no cumple con las condiciones para aplicar chips cuánticos, es muy probable que en el futuro se necesiten chips cuánticos como soporte central de potencia de cálculo. Debido a que los qubits cuánticos son extremadamente sensibles, son susceptibles a factores ambientales externos como la temperatura y el campo electromagnético, que pueden provocar la decoherencia de los estados cuánticos y afectar la precisión de los resultados del cálculo. A pesar de los avances logrados por Willow en la tecnología de corrección cuántica, la estabilidad y resistencia a las interferencias del sistema cuántico aún deben mejorarse para lograr un funcionamiento estable a largo plazo en aplicaciones prácticas de entrenamiento de inteligencia artificial.
El lanzamiento de la nueva generación de chips cuánticos Willow de Google ha causado un gran revuelo en el mundo tecnológico. Esto no solo representa un gran avance en el campo de la computación cuántica, sino que también es la vanguardia de la tecnología a nivel mundial.
El camino hacia el desarrollo futuro de la tecnología de computación cuántica todavía está lleno de desafíos, y hay muchos problemas difíciles de resolver antes de que se pueda aplicar a gran escala en el entrenamiento de IA.
El avance de la tecnología nunca ha sido un camino fácil, al igual que la GPU, que ha pasado de ser desconocida a brillar intensamente.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
3 me gusta
Recompensa
3
1
Republicar
Compartir
Comentar
0/400
WatchingFishInHuagang
· 2024-12-12 01:54
Fuente: Zeping Macro
El 10 de diciembre, Google anunció la última generación de chips cuánticos: Willow, que causó sensación en la comunidad tecnológica mundial, e incluso Musk exclamó "¡Guau!".
¿Cuál es el poder del chip Willow? ¿Qué tan lejos está de la producción en masa?
1 Se lanzó la última generación de chips cuánticos de Google, Willow, y el mayor avance radica en su súper poder de cómputo y capacidad de corrección de errores
Para una tarea de Indicador de referencia llamada "muestreo de circuitos aleatorios", la Supercomputadora más rápida actual cuesta 10 en 25
¿Por qué el chip cuántico Willow ha causado sensación en la comunidad tecnológica mundial?
Fuente: Zeping Macro
** El 10 de diciembre, Google anunció la última generación de chips cuánticos: Willow, que causó sensación en la comunidad tecnológica mundial, e incluso Musk exclamó “¡Guau!”. **
¿Dónde radica la potencia del chip Willow? ¿Cuán lejos está la producción a gran escala?
1 La última generación de chips cuánticos Willow de Google explota, con el mayor avance en su capacidad de cálculo y corrección de errores
Para una tarea base llamada ‘Muestreo de circuitos aleatorios’, la computadora más rápida actualmente necesita 10 ^ 25 años para resolverlo, mucho más tiempo que la edad del universo (26.7 billones de años), mientras que Willow puede completar esta tarea en menos de 5 minutos.
La computación cuántica tiene el potencial de aumentar drásticamente la velocidad de la computación para tareas específicas, superando a las computadoras clásicas, lo que se conoce como “superioridad cuántica”. Ya en 2019, Google comprobó este hecho, publicado en Nature, demostrando que utilizaba un ordenador cuántico de 54 qubits, Sycamore, para lograr una tarea que los ordenadores de arquitectura tradicional no podían hacer: en un experimento en el que el primer superordenador del mundo necesita calcular durante 10.000 años, Sycamore solo tardó 3 minutos y 20 segundos. En ese momento, el CEO de Google, Sundar Pichai, dijo que este era el tan esperado “Hola Mundo” por parte de los investigadores, y que era el hito más significativo en la aplicación práctica de la computación cuántica en ese momento.
El lanzamiento de Willow sin duda es otro evento emblemático en el campo de la computación cuántica.
Sin embargo, ‘rápido’ no es la única mejora más destacada de Willow.
La mayor característica destacada de Willow es su capacidad de corrección de errores súper fuerte.
En el pasado, los chips cuánticos en el proceso de procesamiento de datos, debido a la fragilidad de los estados cuánticos, son susceptibles a interferencias ambientales y experimentan fenómenos de decoherencia, lo que lleva a errores en el estado de los qubits cuánticos. Por lo tanto, a pesar de tener una ‘ventaja cuántica’, las computadoras cuánticas son susceptibles a las influencias ambientales y son propensas a errores. Por lo general, cuanto más qubits cuánticos hay, más errores ocurren.
Por lo tanto, la ‘corrección cuántica’ se ha convertido en una tecnología clave. Los chips cuánticos requieren una tecnología especial de corrección cuántica, lo cual también es un desafío importante en este campo y ha restringido seriamente la aplicación y el desarrollo de la computación cuántica.
El chip Willow ha resuelto con éxito el difícil problema de corrección de errores cuánticos que ha desconcertado a los investigadores durante casi 30 años, logrando una reducción exponencial en la tasa de error. La investigación de Google indica que cuanto más se utilicen los qubits cuánticos en Willow, menor será la tasa de error del sistema.
A medida que aumenta el número de qubits, desde una matriz de 3x3 hasta una matriz de 5x5 y luego a una matriz de 7x7 en el experimento del chip Willow de Google, cada expansión logra reducir la tasa de error de codificación en un factor de 2.14, y la tasa de error disminuye cada vez más rápido.
2. ¿Qué es la computación cuántica? ¿Por qué es tan poderosa?
En 1935, el físico austriaco Erwin Schrödinger propuso un experimento mental fascinante: colocar un gato en una caja junto con una sustancia radiactiva. Existe un 50% de probabilidad de que la sustancia radiactiva se desintegre y libere gas venenoso, matando al gato, y un 50% de probabilidad de que la sustancia radiactiva no se desintegre y el gato sobreviva. Antes de abrir la caja, nadie sabe si el gato está vivo o muerto, solo se puede describir como estar en un estado de superposición de vida y muerte.
El mundo cuántico, al igual que el ‘gato de Schrödinger’, se encuentra en un estado superpuesto de incertidumbre; la teoría computacional correspondiente es la ‘computación cuántica’, y en el nivel de hardware se manifiesta como chips y computadoras cuánticas.
La computación cuántica presenta dos ventajas:
En primer lugar, una gran capacidad de almacenamiento de datos. La computación clásica se basa en bits como unidad básica, mientras que la computación cuántica se basa en qubits como unidad básica.
En la computación clásica, el estado de un bit es determinado, ya sea 0 o 1; mientras que en la computación cuántica, el bit cuántico se encuentra en un estado superpuesto de 0 y 1, lo que significa que puede almacenar simultáneamente 0 y 1.
Un chip tradicional con n bits puede almacenar n datos simultáneamente, mientras que un chip con n qubits puede almacenar 2^n datos al mismo tiempo.
Segundo, muestra una poderosa capacidad de cálculo en paralelo para problemas específicos.
Las computadoras electrónicas tradicionales realizan cálculos secuenciales, convirtiendo un solo valor en otro valor en cada operación, lo que significa que deben realizarse en orden. En cambio, las computadoras cuánticas pueden convertir simultáneamente 2^n datos en otros nuevos 2^n datos con una sola operación.
3. ¿Puede el futuro chip cuántico reemplazar a la GPU y promover el desarrollo de la IA?
La tecnología de inteligencia artificial y diversas aplicaciones se han desarrollado rápidamente en los últimos años, y la demanda de potencia informática también ha aumentado exponencialmente.
En teoría, la capacidad de procesamiento paralelo de la computación cuántica le otorga una ventaja natural en el manejo de algoritmos de inteligencia artificial complejos, lo que puede aumentar significativamente la velocidad y precisión del entrenamiento del modelo. La aparición del chip Willow podría brindar un poder de cálculo poderoso para el avance continuo de la inteligencia artificial.
De hecho, las GPU que ahora se utilizan ampliamente en IA originalmente se diseñaron para acelerar el procesamiento gráfico. Por ejemplo, el renderizado de escenas 3D en juegos, modelado y procesamiento de efectos especiales en la producción de animaciones, efectos visuales en la producción cinematográfica, etc. Sin embargo, debido a su potente capacidad de cálculo, las GPU luego se aplicaron ampliamente en el campo de la computación científica y la inteligencia artificial, especialmente en la etapa de entrenamiento e inferencia de redes neuronales en el aprendizaje profundo, mostrando un rendimiento sobresaliente en el procesamiento de conjuntos de datos a gran escala y tareas de cálculo altamente paralelas.
Desde esta perspectiva, los chips cuánticos también se desarrollarán gradualmente en el futuro, rompiendo las limitaciones de cálculo y acelerando el proceso de entrenamiento de diversos algoritmos de aprendizaje automático de IA. Los chips cuánticos actualmente se utilizan principalmente en áreas específicas que requieren una alta complejidad de cálculo, como el descifrado de algoritmos de cifrado en criptografía (por ejemplo, una amenaza potencial para los métodos de cifrado tradicionales basados en el algoritmo RSA), la simulación de sistemas cuánticos (simulación de propiedades físicas y químicas a nivel cuántico de moléculas, materiales, etc.), y la resolución de problemas de optimización complejos (como la planificación logística y la asignación de recursos en problemas complejos de optimización combinatoria), entre otros. En estos campos, las ventajas de la computación cuántica pueden ser plenamente aprovechadas y pueden resolver tareas que las computadoras tradicionales no pueden completar en un tiempo aceptable.
El crecimiento de la capacidad de cálculo de los chips cuánticos está principalmente relacionado con el aumento en la cantidad y la calidad de los qubits cuánticos. En el futuro, con un mayor número de qubits cuánticos, la capacidad de cálculo de las computadoras cuánticas crecerá de forma exponencial. Cada vez que se agrega un qubit cuántico, el número de combinaciones posibles de estados se duplica. Por ejemplo, 2 qubits cuánticos tienen 4 combinaciones de estados, 3 qubits cuánticos tienen 8 combinaciones de estados, y así sucesivamente. Al mismo tiempo, la calidad de los qubits cuánticos (como el tiempo de coherencia, la fidelidad, etc.) también tiene un impacto importante en la capacidad de cálculo. Los qubits cuánticos de alta calidad pueden mantener de manera más efectiva los estados cuánticos, lo que permite realizar cálculos más precisos y complejos.
Sin embargo, a corto plazo, los chips cuánticos difícilmente pueden desafiar el dominio de las GPUs. Los chips cuánticos tienen una capacidad de cálculo más fuerte que las GPUs y teóricamente podrían reemplazarlas. Sin embargo, lo más importante del dominio de las GPUs no es solo su capacidad de cálculo, sino también su arquitectura programable, ventajas en el ecosistema de desarrollo, tecnología de fabricación y madurez de la industria.
**La arquitectura programable y el ecosistema de desarrolladores de GPU son las principales barreras. ** Nvidia ha allanado el camino durante más de 10 años de la “revolución informática de IA” desencadenada por las GPU.
CUDA (Compute Unified Device Architecture) es la primera plataforma de arquitectura de programación de GPU desarrollada por NVIDIA en 2006. Su valor radica en la creación de un ecosistema de desarrolladores de GPU, donde los ingenieros de algoritmos pueden aprovechar las capacidades de las GPU según sus necesidades, lo que ha ampliado los campos de aplicación de las GPU desde la renderización de gráficos hasta áreas generales.
Si se desarrolla nuevo software basado en hardware nuevo (como chips cuánticos), es necesario lograr la compatibilidad hacia adelante, pero los principales software de IA existentes dependen en su mayoría de la plataforma CUDA, por lo que desvincularse de la arquitectura CUDA conlleva costos elevados. Además, debido al efecto barrera de entrada de la comunidad de desarrollo, muchos desarrolladores de alto rendimiento en computación han acumulado experiencia de desarrollo en el ecosistema CUDA, que tiene millones de descargas al año, por lo que migrar a otros modelos de programación llevará una década de trabajo.
La tecnología de fabricación de chips de GPU y la cadena industrial están maduras, con un amplio mercado de consumo y un ciclo de la industria positivo.
La GPU ha existido durante 25 años desde su creación. Los escenarios comerciales aguas abajo, como PC personal, desarrollo personalizado y centros de datos de IA, han estado en uso comercial durante 10 a 30 años. Actualmente, el ciclo de desarrollo de GPU, desde la aprobación del chip hasta la producción en masa, lleva un año, y el desarrollo de equipos de litografía y la iteración de procesos de fabricación de obleas están vinculados principalmente al desarrollo de GPU. Esta cadena de suministro sólida es difícil de romper después de más de una década de ciclo positivo.
Sin embargo, la fabricación de chips cuánticos y la cadena de suministro de GPU son difíciles de superponer. El diseño y la ingeniería de fabricación de chips cuánticos son extremadamente complejos, requieren un entorno experimental altamente puro, tecnología de control cuántico precisa y bits cuánticos estables, por lo que durante mucho tiempo solo unas pocas empresas tecnológicas líderes han estado ‘luchando en solitario’, y aún no se ha formado una cadena de suministro industrial madura. Por lo tanto, a corto plazo, lograr la producción en masa de chips cuánticos y su aplicación comercial es un gran desafío.
4. El área más afectada por los chips cuánticos: criptomonedas y “HPC+AI”
4.1 Chips cuánticos o la “némesis” de las criptomonedas
Tomando Bitcoin como ejemplo, su seguridad se basa en dos mecanismos clave. Uno es el mecanismo de “minería”, donde la producción de Bitcoin se basa en la Prueba de Trabajo, que depende de las funciones hash. Cuanto mayor sea la tasa de hash, mayor será la probabilidad de éxito en la minería. El segundo es la firma de transacción, basada en el algoritmo de firma digital de curva elíptica (ECDSA), que actúa como la “identidad de la billetera” del usuario. El diseño de estos dos mecanismos hace que Bitcoin sea prácticamente imposible de descifrar utilizando la computación tradicional, pero los chips cuánticos representarán una amenaza directa para Bitcoin.
Uno es el violento descifrado del mecanismo de “minería” por parte de la computación cuántica. Los algoritmos de la computación cuántica pueden acelerar el cálculo de las funciones hash, es decir, acelerar la velocidad de la minería, y superar a todos los dispositivos tradicionales anteriores. El resultado es un aumento en la tasa de éxito de la minería, un repentino aumento en el suministro de criptomonedas, lo que provoca grandes fluctuaciones en el precio del mercado. El 10 de diciembre, el precio del Bitcoin cayó de 100,000 a 94,000 dólares. Según los datos de Coinglass, del 10 al 12 de diciembre, un total de 237,000 personas fueron liquidadas.
La segunda es la amenaza directa de la computación cuántica a las firmas de transacciones. **Existen dos tipos de credenciales para las transacciones de criptomonedas, la “clave pública” y la “clave privada”, la primera es equivalente al número de la tarjeta bancaria, y la segunda es equivalente a la contraseña de la billetera. Normalmente, la divulgación de la dirección de clave pública no afecta a la seguridad de los fondos del usuario, pero la computación cuántica puede utilizar la clave pública para descifrar la firma y falsificar la transacción. Por ejemplo, el algoritmo Shor en computación cuántica, que está diseñado específicamente para resolver los problemas de factorización de factores primos y logaritmos discretos de números enteros grandes, supondrá una seria amenaza para las firmas de transacciones.
Aunque Willow representa poca amenaza para Bitcoin en este momento, es muy probable que las criptomonedas sean rotas por la computación cuántica en el futuro. En teoría, un ataque a la firma y al mecanismo de minería de Bitcoin requeriría millones de qubits físicos, lo que sigue siendo una gran brecha con respecto a los 105 qubits físicos que Willow tiene actualmente. Pero si Willow itera como una GPU de propósito general y logra la producción en masa y los saltos de potencia de cómputo, entonces no es imposible que Bitcoin sea “atacado” en la próxima década.
4.2 Los chips cuánticos impulsarán la combinación de HPC y AI y promoverán el desarrollo de la inteligencia artificial avanzada.
Según la clasificación de OpenAI sobre la inteligencia artificial, desde el nivel L1 (Chatbot) hasta el nivel L5 (AGI), el desarrollo actual de modelos de inteligencia artificial solo se encuentra en la transición de los niveles L1 a L2. La AGI de nivel L5 se define como tener la capacidad a nivel organizativo para juzgar, razonar, predecir y planificar acciones en entornos dinámicos y complejos del mundo real. La industria considera que “HPC+AI” será un paso clave para lograr la AGI.
La computación de alto rendimiento (HPC) se refiere al uso de una potente capacidad de computación para resolver problemas científicos, de ingeniería y tecnológicos, que en cierta medida son similares a los actuales modelos de inteligencia artificial (IA), pero con diferentes direcciones y enfoques.
La HPC se centra en la “resolución de problemas complejos”, como la aplicación de superordenadores en meteorología, física, astronomía y otros campos, lo que ha supuesto importantes avances en la investigación científica.
Los modelos de IA se centran en la ‘inferencia y generación’, y aunque no son buenos para resolver modelos complejos, son altamente versátiles.
La implementación de chips cuánticos es un avance revolucionario en el campo de HPC. Ya no es necesario recurrir a cálculos intensivos de HPC durante largos períodos de tiempo para resolver problemas complejos. En cambio, se puede avanzar en una nueva dirección: combinarlos con la IA para realizar entrenamientos generales más complejos.
Uno de los problemas es que el entrenamiento tradicional de IA no puede manejar datos de qubits, mientras que la computación cuántica puede optimizar modelos de aprendizaje que no se pueden manejar con cálculos tradicionales y construir modelos de sistema sensibles a fenómenos cuánticos. Es decir, los modelos de IA del futuro tendrán la capacidad de razonar y predecir el mundo complejo, reduciendo o incluso eliminando la ‘ilusión de IA’ en comparación con los modelos actuales.
La segunda ventaja es la tecnología de corrección de errores cuánticos, el chip Willow supera el desafío clave de la corrección de errores cuánticos, logrando una reducción significativa en la tasa de error. La aplicación de la tecnología de corrección de errores cuánticos en el entrenamiento de IA de alto nivel puede garantizar la precisión y confiabilidad del modelo en el entrenamiento y el procesamiento de grandes cantidades de datos complejos, reduciendo los errores de cálculo causados por la fragilidad de los bits cuánticos, lo que mejora la efectividad y la confiabilidad del entrenamiento de IA.
Aunque el entrenamiento actual de IA aún no cumple con las condiciones para aplicar chips cuánticos, es muy probable que en el futuro se necesiten chips cuánticos como soporte central de potencia de cálculo. Debido a que los qubits cuánticos son extremadamente sensibles, son susceptibles a factores ambientales externos como la temperatura y el campo electromagnético, que pueden provocar la decoherencia de los estados cuánticos y afectar la precisión de los resultados del cálculo. A pesar de los avances logrados por Willow en la tecnología de corrección cuántica, la estabilidad y resistencia a las interferencias del sistema cuántico aún deben mejorarse para lograr un funcionamiento estable a largo plazo en aplicaciones prácticas de entrenamiento de inteligencia artificial.
El lanzamiento de la nueva generación de chips cuánticos Willow de Google ha causado un gran revuelo en el mundo tecnológico. Esto no solo representa un gran avance en el campo de la computación cuántica, sino que también es la vanguardia de la tecnología a nivel mundial.
El camino hacia el desarrollo futuro de la tecnología de computación cuántica todavía está lleno de desafíos, y hay muchos problemas difíciles de resolver antes de que se pueda aplicar a gran escala en el entrenamiento de IA.
El avance de la tecnología nunca ha sido un camino fácil, al igual que la GPU, que ha pasado de ser desconocida a brillar intensamente.