Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI révèle le projet « Polaris », la « grande crise du chômage de 2028 » pourrait vraiment arriver
Il y a peu de temps, un article intitulé « Prévisions pour 2028 » a circulé massivement en ligne. Cet article indiquait qu’en raison des progrès de l’IA, une vague massive de chômage surviendrait en 2028, de nombreux emplois étant remplacés par l’IA.
Après la publication de cet article, combinée à la situation au Moyen-Orient, cela a fortement fait chuter le marché boursier américain ce jour-là. Ce phénomène peut sembler fantastique, car il est évident que cet article a été écrit par une IA, mais il semble correspondre à la peur collective d’un « grand chômage causé par l’IA », ce qui a amplifié son impact.
Récemment, une information révélée par OpenAI a permis de prendre conscience que le « grand chômage de 2028 » pourrait ne pas être une simple spéculation.
Dernièrement, le scientifique en chef d’OpenAI, Jakub Pachocki, lors d’un entretien exclusif avec MIT Technology Review, a prononcé une phrase glaçante : leur « étoile polaire » est de construire d’ici 2028 un système de recherche entièrement automatisé basé sur plusieurs intelligences artificielles.
L’objectif de la première étape, prévu pour septembre cette année, est de créer :
Un « stagiaire en recherche IA autonome » capable de traiter de manière indépendante des problématiques de recherche spécifiques.
Ce n’est pas une simple étape dans la feuille de route produit, ni une déclaration frivole d’Altman sur X. C’est une décision stratégique de tout l’engagement de l’entreprise.
Signification de « l’étoile polaire »
Quand une entreprise technologique parle de « l’étoile polaire », cela signifie généralement deux choses : d’une part, tout doit céder la place à cet objectif, et d’autre part, un consensus interne a été atteint.
D’après les actions d’OpenAI au cours des deux dernières semaines, cette analyse semble correcte.
Le 19 mars, OpenAI a annoncé l’acquisition de la société d’outils pour développeurs Astral, intégrant son équipe dans le département Codex ; en même temps, l’entreprise a annoncé la fusion de ChatGPT, Codex et du navigateur dans une « super application » de bureau, dirigée par Fidji Simo, avec l’aide de Greg Brockman pour la réforme organisationnelle.
L’ère des produits fragmentés touche à sa fin, OpenAI concentre tous ses efforts dans une seule direction.
Et cette direction consiste à « faire en sorte que l’IA fasse elle-même de la recherche ».
La logique de Pachocki est claire : modèles de raisonnement, agents intelligents, explicabilité — ces trois axes technologiques, qui étaient auparavant en compétition chez OpenAI, seront désormais intégrés dans un seul objectif : créer un chercheur IA capable de fonctionner de manière autonome dans un centre de données pendant longtemps. Il affirme qu’une fois cela réalisé, « ce sera notre véritable dépendance ».
L’ancien chercheur d’OpenAI, Andrej Karpathy, a une opinion plus directe : « Tous les laboratoires à la pointe des grands modèles de langage feront cela, c’est la bataille finale du BOSS. » Il ajoute une remarque à méditer : « La mise à l’échelle sera évidemment plus complexe, mais faire cela n’est qu’un problème d’ingénierie, et cela réussira. »
Il insiste sur le fait que ce n’est pas une question de « si » mais de « quand ».
Anthropic en action
Le même jour où OpenAI a annoncé « l’étoile polaire », Anthropic a discrètement lancé Claude Code Channels — une fonctionnalité permettant aux développeurs d’interagir directement avec une session Claude Code via Telegram et Discord.
Ce détail peut sembler insignifiant isolément, mais dans le contexte des tendances globales, c’est crucial.
La logique d’Anthropic est : plutôt que de dire aux développeurs ce que l’IA pourra faire à l’avenir, il vaut mieux l’intégrer dès maintenant dans leur flux de travail réel. Telegram et Discord ne sont pas des lieux de recherche académique, mais des espaces où les programmeurs travaillent quotidiennement. Faire vivre Claude Code ici signifie qu’il devient un « collègue » plutôt qu’un simple « outil ».
Les réactions de la communauté confirment cette analyse.
Un utilisateur a déclaré : « Claude, avec cette mise à jour, a tué OpenClaw, tu n’as plus besoin d’acheter un Mac Mini. » Cela signifie que les améliorations infrastructurelles d’Anthropic ont déjà éliminé l’avantage coût des solutions open source.
De plus, en regardant la ligne temporelle plus large, la vitesse d’itération d’Anthropic sur Claude Code est impressionnante. En quelques semaines, il a intégré le traitement du texte, des milliers de compétences MCP, et des capacités d’auto-correction de bugs. Pendant qu’OpenAI renforçait Codex via Astral, Anthropic a déjà intégré Claude Code directement dans la fenêtre de chat des développeurs.
Les deux entreprises avancent vers le même objectif, mais par des chemins très différents : OpenAI construit un « chercheur entièrement automatisé pour 2028 », tandis qu’Anthropic développe des outils intelligents utilisables dès aujourd’hui.
Le vrai défi
Cependant, un détail crucial ne peut être ignoré.
Dans l’interview, Pachocki a fait une chose rare : il a abordé ouvertement les défis liés à la sécurité et à la contrôlabilité, en étant très honnête.
Il a expliqué qu’ils envisagent d’utiliser d’autres grands modèles de langage pour « surveiller les notes du chercheur IA », afin de détecter les comportements indésirables avant qu’ils ne se produisent. Mais il a rapidement reconnu : « Notre compréhension des grands modèles de langage n’est pas suffisante pour les contrôler totalement. Dire que « ce problème est résolu » est encore loin. »
Le fait qu’un chef scientifique d’une entreprise déclare « nous n’avons pas encore un contrôle total » tout en annonçant un système de recherche IA entièrement automatisé d’ici 2028, mérite une réflexion sérieuse.
Ce n’est pas une déclaration pessimiste, mais une reconnaissance de la difficulté réelle. La capacité de Pachocki à dire cela montre que chez OpenAI, ils ont une conscience claire des défis.
Sur le plan technique, un cadre appelé « boucle de Karpasi » a été résumé par des chercheurs : un cadre d’automatisation de la recherche IA réussi nécessite trois éléments : un agent capable de modifier un fichier, une métrique unique pour tester objectivement, et une limite de temps expérimentale fixe.
Ce cadre commence déjà à produire des résultats concrets. Le PDG de Shopify, Tobias Lütke, a partagé un exemple : il a laissé un agent de recherche automatique fonctionner la nuit, et le matin, il avait effectué 37 expériences, améliorant la performance du modèle de 19 %.
De la conception à la mise en œuvre, cette voie est plus courte qu’on ne le pensait.
L’avenir avec un abonnement à 20 000 dollars
Le projet « étoile polaire » n’est pas seulement une avancée technologique, c’est aussi une stratégie commerciale clé.
Paul Roetzer cite des chiffres qui invitent à la réflexion : selon ses prévisions internes d’OpenAI, d’ici 2029, le secteur des agents intelligents pourrait générer 29 milliards de dollars de revenus annuels, comprenant un « agent de connaissance » à 2000 dollars par mois et un « agent de recherche » à 20 000 dollars par mois.
Ces chiffres montrent que « chercheur IA » n’est pas qu’un objectif technique, mais une véritable feuille de route pour générer des revenus.
L’abonnement mensuel de 20 000 dollars pour un « agent de recherche » équivaut à une fraction du salaire annuel d’un chercheur expérimenté, mais il peut fonctionner 24h/24, réaliser 37 expériences simultanément. Il ne s’agit pas de remplacer une personne spécifique, mais de redéfinir la « productivité en recherche » elle-même.
Cela me rappelle la phrase de Karpathy : « C’est la bataille finale du BOSS. » Par « BOSS », il ne parle pas d’un concurrent, mais du plafond des capacités de l’IA elle-même.
Une fois que l’IA pourra mener ses propres recherches scientifiques, la vitesse de progrès de l’IA ne sera plus limitée par le nombre ou le temps de travail des chercheurs humains.
Pachocki a exprimé la même idée, mais avec plus de réserve : « Une fois que le système pourra fonctionner de manière autonome dans un centre de données pendant longtemps, ce sera notre véritable dépendance. »
L’étape de septembre 2026, avec le stagiaire en recherche IA, n’est pas une fin, mais un point de départ crucial.