Selon les informations de CoinWorld, d’après la surveillance de 1M AI News, Nvidia a officiellement lancé le Vera CPU lors de la GTC, positionné comme le premier processeur spécialement conçu pour l’Agent AI et l’apprentissage renforcé (initialement annoncé en tant que composant de la plateforme Vera Rubin). Alors que l’IA s’étend de la génération et du raisonnement à l’action autonome des agents, les flux de travail tels que la planification de tâches, l’appel d’outils, l’exécution de code et la vérification des résultats exigent de plus en plus de performances CPU. Jensen Huang a déclaré : « Le CPU n’est plus simplement un assistant pour le modèle, il pilote le modèle. » Vera utilise 88 cœurs Olympus développés par Nvidia, chaque cœur pouvant exécuter simultanément deux tâches grâce à la technologie Spatial Multithreading, adaptée aux opérations massivement parallèles dans des usines d’IA multi-locataires. La mémoire utilise la deuxième génération de sous-système à faible consommation LPDDR5X, avec une bande passante de 1,2 To/s, doublant celle des CPU classiques tout en réduisant la consommation d’énergie de moitié. Parmi les fournisseurs de services cloud déjà planifiés pour le déploiement figurent Alibaba, ByteDance, Cloudflare, CoreWeave, Lambda, Nebius, Oracle Cloud (OCI), Together.AI, Vultr, etc. Sur le plan matériel, 19 fabricants tels que Dell Technologies, HPE, Lenovo et Supermicro ont commencé l’adaptation. Michael Truell, co-fondateur et CEO de Cursor, un outil de programmation AI, a déclaré qu’il utiliserait Vera pour améliorer le débit et la réactivité des agents de programmation. Après avoir testé Vera avec la charge compatible Apache Kafka sur la plateforme de données en flux Redpanda, la latence a été réduite jusqu’à 5,5 fois. Des laboratoires tels que le Los Alamos National Laboratory, le Lawrence Berkeley National Laboratory et le Texas Advanced Computing Center ont également planifié le déploiement. Le CPU Vera est en production de série et sera expédié via des partenaires au second semestre de cette année.