Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
LangChain Donne aux Agents IA le Contrôle de Leur Propre Gestion de la Mémoire
Terrill Dicki
12 mars 2026 01:55
Le SDK Deep Agents de LangChain permet désormais aux modèles d’IA de décider quand compresser leurs fenêtres de contexte, réduisant ainsi l’intervention manuelle dans les flux de travail d’agents de longue durée.
LangChain a publié une mise à jour de son SDK Deep Agents qui donne aux modèles d’IA la clé de leur propre gestion de mémoire. La nouvelle fonctionnalité, annoncée le 11 mars 2026, permet aux agents de déclencher automatiquement la compression du contexte plutôt que de dépendre de seuils fixes de tokens ou de commandes manuelles de l’utilisateur.
Ce changement répond à un problème récurrent dans le développement d’agents : les fenêtres de contexte se remplissent à des moments inopportuns. Les systèmes actuels compactent généralement la mémoire lorsqu’ils atteignent 85 % de la limite de contexte d’un modèle — ce qui peut se produire en plein refactoring ou lors d’une session de débogage complexe. Un mauvais timing entraîne une perte de contexte et des flux de travail interrompus.
Pourquoi le timing est important
La compression du contexte n’est pas nouvelle. La technique consiste à remplacer les messages plus anciens par des résumés condensés pour maintenir les agents dans leurs limites de tokens. Mais le moment où vous compresse est aussi crucial que la compression elle-même.
L’implémentation de LangChain identifie plusieurs moments optimaux pour la compression : lors des frontières de tâches lorsque l’utilisateur change de focus, après avoir extrait des conclusions de grands contextes de recherche, ou avant de commencer des modifications longues sur plusieurs fichiers. L’agent apprend essentiellement à faire le ménage avant de commencer un travail désordonné plutôt que de se précipiter lorsqu’il manque de place.
Une recherche de Factory AI publiée en décembre 2024 confirme cette approche. Leur analyse a montré que la synthèse structurée — qui préserve la continuité du contexte plutôt que de le tronquer brutalement — est essentielle pour des tâches complexes comme le débogage. Les agents qui maintiennent la structure du flux de travail surpassent nettement ceux utilisant des méthodes de coupure simples.
Mise en œuvre technique
L’outil est livré en tant que middleware pour le SDK Deep Agents (Python) et s’intègre à la CLI existante. Les développeurs l’ajoutent à leur configuration d’agent :
Le système conserve 10 % du contexte disponible en tant que messages récents tout en résumant tout ce qui précède. LangChain a intégré une sécurité — l’historique complet de la conversation reste dans le système de fichiers virtuel de l’agent, permettant une récupération si la compression échoue.
Les tests internes ont montré que les agents sont prudents quant au déclenchement de la compression. LangChain a validé cette fonctionnalité avec leur benchmark Terminal-bench-2 et des suites d’évaluation personnalisées utilisant les traces LangSmith. Lorsque les agents compressaient de manière autonome, ils choisissaient systématiquement des moments qui amélioraient la continuité du flux de travail.
La vision d’ensemble
Cette sortie reflète un changement plus large dans la philosophie de l’architecture des agents. LangChain fait explicitement référence à la “leçon amère” de Richard Sutton — l’observation que les méthodes générales exploitant la calculabilité tendent à surpasser les approches manuelles à long terme.
Plutôt que de demander aux développeurs de configurer minutieusement quand les agents doivent gérer la mémoire, le cadre délègue cette décision au modèle lui-même. C’est un pari que les capacités de raisonnement de modèles comme GPT-5.4 ont atteint un niveau où ils peuvent prendre ces décisions opérationnelles de manière fiable.
Pour les développeurs construisant des agents de longue durée ou interactifs, la fonctionnalité est activable via le SDK et accessible via la commande /compact en CLI. L’impact pratique : moins d’interruptions dans les flux de travail et moins de manipulation manuelle autour des limites de contexte que la plupart des utilisateurs finaux ne comprennent même pas.
Source de l’image : Shutterstock