Anthropic teste son modèle d’IA le plus puissant à ce jour, mais le monde n’en a pris connaissance qu’après une fuite de données. Selon les rapports, un brouillon d’article de l’entreprise a été laissé dans un cache de données publiques, non sécurisé, révélant ainsi le nom du nouveau modèle et les ambitions techniques qui l’accompagnent.
L’incident a commencé lorsqu’un brouillon d’article se trouvait dans un dépôt de données publiques et consultables, aux côtés de milliers d’autres actifs non publiés. Après que Fortune a pris contact, Anthropic a confirmé que ce modèle existait, affirmant qu’il s’agissait d’un “saut” en matière de capacités d’IA et qu’il était actuellement testé avec des clients accédant en avant-première. L’entreprise a également reconnu une erreur humaine dans le système de gestion de contenu qui a conduit à cet incident.
Le brouillon révèle un nouveau niveau de modèle nommé Capybara, décrit comme étant plus grand et plus puissant que les modèles Opus précédents — qui étaient les versions les plus performantes d’Anthropic. Par rapport à Claude Opus 4.6, Capybara est censé donner des résultats supérieurs dans les tests de programmation logicielle, de raisonnement académique et de cybersécurité.
Ce qui est particulièrement notable pour l’industrie crypto est l’aspect cybersécurité. Le brouillon indique que ce modèle pourrait créer des “risques de cybersécurité sans précédent”, et c’est un signal direct pour le domaine de la sécurité blockchain, de l’audit de smart contracts et de la course entre les attaquants et les défenseurs dans DeFi. À mesure que des IA plus puissantes continuent à apparaître, tant les attaquants que les défenseurs disposeront de meilleurs outils, plus rapides et plus dangereux.
Cette semaine, Ripple a également annoncé une réorganisation de la sécurité basée sur l’IA pour XRP Ledger après qu’une équipe rouge soutenue par l’IA a découvert plus de 10 vulnérabilités dans un code source vieux de 13 ans. Ethereum vient d’ouvrir un centre de sécurité post-quantique à part. En revanche, le stablecoin Resolv a perdu son peg après qu’un attaquant a exploité un contrat de mint sans vérifications d’oracle et avec un contrôle d’accès à clé unique — exactement le type de vulnérabilité que des outils d’IA plus puissants pourraient détecter avant qu’elle ne soit exploitée.
Pour le marché des tokens AI, la fuite soulève une autre question : lorsque un laboratoire centralisé comme Anthropic crée un tel saut de capacité, jusqu’où l’écart entre les modèles d’entreprise avec de gros budgets et les projets d’IA décentralisés va-t-il se creuser ? Bittensor a récemment lancé Covenant-72B, faisant grimper le TAO, mais le “saut” d’un laboratoire de premier plan comme Anthropic élèvera clairement le niveau de la concurrence à un nouveau palier.
Anthropic a déclaré qu’ils étaient prudents quant à leur plan de lancement du modèle en raison des coûts d’exploitation élevés et qu’il n’était pas encore prêt pour le grand public. L’entreprise a également retiré l’accès public au cache de données après avoir été contactée par Fortune. Cet incident est donc à la fois l’histoire d’un modèle d’IA ambitieux et un rappel ironique : même une entreprise développant les outils de cybersécurité les plus avancés peut commettre des erreurs de sécurité très basiques.