Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'informatique confidentielle est comment l'IA regagne la confiance qu'elle a déjà perdue — Et pourquoi elle doit devenir la nouvelle norme
En Bref
Alors que l’adoption de l’IA dépasse la confiance publique, Ahmad Shadid d’ORGN affirme que l’informatique confidentielle et l’exécution vérifiable offrent la preuve cryptographique que les politiques de confidentialité seules ne peuvent pas fournir.
Les systèmes d’IA s’intègrent rapidement dans des flux de travail sensibles — rédaction de code, gestion des données clients, soutien à la prise de décision dans des secteurs réglementés tels que la finance et la santé. La rapidité de cette intégration a créé un problème structurel que l’industrie n’a pas encore réussi à résoudre de manière adéquate.
Le défi est la confiance. Une étude menée par l’Université de Melbourne en collaboration avec KPMG, auprès de plus de 48 000 personnes dans 47 pays, a révélé que si 66 % des répondants utilisent régulièrement l’IA, moins de la moitié — seulement 46 % — déclarent être prêts à faire confiance aux systèmes d’IA. L’utilisation et la confiance évoluent dans des directions opposées, et l’écart entre elles se creuse.
La dimension de la confidentialité des données de ce déficit de confiance est particulièrement aiguë. Selon l’Index IA 2025 de Stanford, la confiance mondiale dans la protection des données personnelles par les entreprises d’IA est passée de 50 % en 2023 à 47 % en 2024, tandis que moins de personnes croient désormais que les systèmes d’IA sont impartiaux et exempts de discrimination par rapport à l’année précédente. Cette baisse se produit précisément à un moment où l’IA s’intègre plus profondément dans la vie quotidienne et les environnements professionnels, rendant les enjeux d’une confiance mal placée considérablement plus élevés.
Ahmad Shadid, PDG d’ORGN, le premier environnement de développement confidentiel au monde, soutient que la prochaine phase de l’IA ne sera pas construite sur la confiance — elle sera construite sur la preuve. L’informatique confidentielle et l’exécution vérifiable permettent de démontrer précisément comment les données sont traitées, plutôt que de simplement promettre qu’elles sont sécurisées.
Dans une interview avec MPost, il explique comment ces technologies comblent les lacunes en matière de confidentialité et de confiance que les mesures de sécurité conventionnelles laissent ouvertes dans les flux de travail d’IA, et ce qu’il faudrait pour qu’elles deviennent courantes.
Comment les entreprises d’IA protègent généralement les données aujourd’hui — et pourquoi ce n’est pas suffisant
La plupart des entreprises d’IA s’appuient actuellement sur une combinaison de chiffrement, de contrôles d’accès et de politiques de gouvernance pour protéger les données sensibles. Le chiffrement est appliqué aux données au repos et en transit à l’aide d’algorithmes établis, tandis que les contrôles d’accès basés sur les rôles, la journalisation et la détection d’anomalies régissent qui peut interagir avec les systèmes et dans quelles conditions. Ces mesures représentent la base de l’industrie, et pour de nombreux cas d’utilisation, elles sont suffisantes.
Le problème surgit à un moment précis et largement négligé : lorsque les données sont déchiffrées en mémoire pour l’entraînement ou l’inférence du modèle. À ce moment-là, une fenêtre d’exposition s’ouvre. L’informatique confidentielle y répond directement en chiffrant les données pendant leur traitement actif, au sein même du matériel, de sorte que même l’opérateur de l’infrastructure ne peut pas voir ce qui se passe à l’intérieur de la machine.
Shadid identifie une vulnérabilité structurelle que les approches de sécurité standard ne comblent pas entièrement. Lorsque les données sont déchiffrées sur un serveur que le client ne contrôle pas directement — par exemple dans un environnement cloud public ou une plateforme d’IA tierce — le client n’a aucun moyen technique de vérifier ce qui leur arrive réellement. En pratique, il doit se fier à la parole du fournisseur.
Cette préoccupation ne se limite pas aux utilisateurs finaux. Dans les environnements réglementés, les responsables de la sécurité des informations (CISOs), les auditeurs de conformité et les régulateurs rencontrent le même problème. Ils comptent généralement sur des certificats ISO 27001, des rapports SOC 2 et des documents de politique — des instruments qui, comme le dit Shadid, prouvent l’intention plutôt que ce qui se passe réellement avec les données en utilisation. L’informatique confidentielle avec attestation modifie cette équation en fournissant une preuve cryptographique résistante à la falsification qu’une version spécifique du modèle a été exécutée dans un environnement d’exécution fiable approuvé avec une pile logicielle certifiée. La garantie passe de l’intention documentée à un fait technique vérifiable.
La dynamique réglementaire en faveur de ce changement est déjà visible. Selon l’étude Confidential Computing de l’IDC de juillet 2025, l’introduction du Digital Operational Resilience Act (DORA) de l’UE a conduit 77 % des organisations à envisager plus sérieusement l’informatique confidentielle, avec 75 % qui l’ont déjà adoptée sous une forme ou une autre. Les principaux avantages rapportés sont une meilleure intégrité des données, des garanties de confidentialité prouvées et une conformité réglementaire renforcée.
Ce que signifie l’exécution vérifiable en pratique
Pour un public non technique, Shadid décrit l’exécution vérifiable comme la réception d’un reçu cryptographique après qu’un système d’IA a traité des données. Ce reçu démontre, de manière mathématiquement vérifiable, que l’IA a fonctionné sur du matériel certifié, qu’elle a exécuté la version attendue du logiciel et rien d’autre en parallèle, et que l’environnement était correctement sécurisé avant que toute donnée sensible ne soit déverrouillée. L’intégrité du processus ne repose plus sur la confiance dans les assurances du fournisseur — elle repose sur la vérification de la preuve.
Sur le plan technique, cela est réalisé par trois mécanismes interconnectés. Les environnements d’exécution fiables, ou TEEs, permettent au processeur de créer une enclave scellée — mémoire et exécution isolées au niveau du silicium — de sorte que ni le système d’exploitation, ni l’hyperviseur, ni l’opérateur cloud ne puissent lire ce qui se passe à l’intérieur. L’attestation à distance permet à une partie externe de vérifier qu’un TEE authentique exécute une pile logicielle approuvée avant que les clés de déchiffrement ou les entrées sensibles ne soient libérées. Enfin, les résultats vérifiables permettent à certains systèmes de signer leurs résultats avec un certificat lié à l’attestation, afin que toute personne recevant le résultat puisse confirmer qu’il provient de l’application attendue dans un environnement protégé et qu’il n’a pas été modifié en transit.
Shadid soutient que les avantages de l’informatique confidentielle s’étendent à toute la chaîne de valeur de l’IA. Les développeurs d’IA peuvent entraîner et exécuter des modèles sur des jeux de données sensibles ou réglementés dans des environnements cloud partagés sans exposer les données brutes à l’opérateur de la plateforme. Pour les entreprises, cette technologie réduit leur exposition légale et réputationnelle en fournissant une preuve démontrable que les données personnelles restent protégées lors du traitement par l’IA — soutenant ainsi les exigences de confidentialité de type RGPD et les réglementations sectorielles. Elle ouvre également la voie à la collaboration inter-organisationnelle sur les données, car chaque partie peut vérifier que ses données ne sont traitées que dans des environnements attestés et conformes aux politiques, éliminant ainsi l’un des principaux obstacles aux projets d’IA conjoints.
Pour les utilisateurs finaux, l’avantage est une assurance plus forte et plus tangible que leurs données personnelles ne peuvent pas être accessibles par les opérateurs, les insiders ou d’autres locataires cloud pendant que les systèmes d’IA fonctionnent. Elle permet aussi de rendre possibles des services à plus forte valeur ajoutée — par exemple, des conseils personnalisés en santé ou des recommandations financières détaillées — qui étaient auparavant considérés comme trop sensibles pour être fournis via une infrastructure cloud.
Shadid s’appuie sur sa propre expérience d’ingénieur logiciel pour illustrer l’un des risques moins discutés. Les développeurs collent couramment du code propriétaire, des fichiers de configuration, des clés API et des tokens dans des outils de codage IA, souvent avec une visibilité limitée sur la façon dont ces données sont stockées ou utilisées. La rapidité de l’industrie rend ces outils difficiles à éviter. C’est précisément cette tension — devoir avancer rapidement tout en étant conscient de l’exposition de la propriété intellectuelle — qui l’a conduit à créer ORGN, un environnement de développement confidentiel construit sur les principes de l’informatique confidentielle.
Pourquoi l’adoption généralisée n’est pas encore arrivée
Malgré une adoption en entreprise de 75 % sous une forme ou une autre, l’étude IDC a révélé que seulement 18 % des organisations ont intégré l’informatique confidentielle dans leurs environnements de production. Shadid identifie trois principaux obstacles : la complexité de la validation de l’attestation, une perception persistante de la technologie comme étant de niche, et une pénurie d’ingénieurs possédant les compétences nécessaires.
Il explique que la validation de l’attestation est beaucoup plus complexe en pratique qu’elle ne paraît sur le papier. La preuve d’attestation arrive sous forme de structures binaires ou d’objets JSON contenant des mesures, des certificats et des éléments de preuve qui doivent être analysés, vérifiés par rapport aux racines du fournisseur, et validés pour leur fraîcheur et leur révocation. Ensuite, les développeurs doivent déterminer ce qui est considéré comme fiable — quelles versions de firmware, quels hachages d’image et quelles mesures d’application sont acceptables — et intégrer cette logique dans leur propre système de contrôle ou gestion des clés. Les grands fournisseurs cloud comme AWS, Azure et Oracle proposent déjà des calculs confidentiels à des coûts globalement comparables à ceux de l’infrastructure standard, donc le problème n’est pas l’accès ou le prix. C’est la profondeur d’ingénierie requise pour opérationnaliser correctement l’attestation.
Selon Shadid, une adoption plus large dépendra de trois forces convergentes. Premièrement, la validation de l’attestation doit devenir nettement plus accessible, soit par la standardisation, soit par des outils open-source qui abstraient la complexité pour les équipes de développement. Deuxièmement, la pression réglementaire continuera à stimuler l’adoption, comme l’a déjà montré DORA — si d’autres secteurs suivent une trajectoire similaire, le cas d’affaires pour l’informatique confidentielle deviendra de plus en plus difficile à ignorer. Troisièmement, et peut-être le plus fondamental, la sensibilisation du public à ce qui se passe à l’intérieur des systèmes d’IA doit croître. La plupart des gens, affirme Shadid, n’ont pas une idée claire de ce qui se produit lorsqu’ils soumettent une requête à un outil d’IA grand public. Une meilleure prise de conscience de cette exposition — tant chez les développeurs que chez les utilisateurs en général — générerait une pression sociale qui accélérerait l’adoption bien plus efficacement que les arguments techniques seuls.
En regardant plus loin, il suggère que si l’informatique confidentielle et l’exécution vérifiable deviennent l’infrastructure par défaut, la façon dont les services d’IA sont conçus, vendus et gouvernés changera radicalement. Les clients recevraient une preuve cryptographique de la manière dont leurs données ont été traitées plutôt que des garanties politiques, permettant aux entreprises de démontrer leur conformité aux régulateurs et aux conseils d’administration de manière concrète plutôt que documentaire. L’analogie que Shadid établit est celle du chiffrement du stockage et du réseau, qui est passé d’une mesure de sécurité optionnelle à une norme universelle en relativement peu de temps. La direction pour l’exécution confidentielle est la même — et une fois qu’elle sera arrivée, chaque inférence, chaque ajustement fin, et chaque transfert de données portera une attestation cryptographique, faisant de l’intégrité du pipeline une réalité vérifiable plutôt qu’une confiance institutionnelle.