Le véritable « moment TCP/IP » de Web3 n'a pas encore eu lieu | Opinion

Internet a évolué parce que l’IP a créé un tissu universel pour les données. Web3 n’a jamais bénéficié de cette luxury. À la place, il a hérité des réseaux des années 1980 et d’un patchwork de protocoles ad hoc qui ralentissent et congestionnent dès que vous essayez d’exécuter de vraies transactions à grande échelle, sans parler des milliards d’agents IA, des couches de règlement globales ou d’un réseau de capteurs d’infrastructure physique décentralisée à l’échelle planétaire. Nous avons largement dépassé le point où des chaînes plus rapides ou des blocs plus gros peuvent aider.

Résumé

  • Web3 ne peut pas évoluer avec son réseau fragmenté et obsolète. Il lui faut un protocole de données universel et décentralisé — son propre TCP/IP — pour atteindre un débit mondial sans confiance.
  • Les avancées mathématiques comme RLNC montrent que les réseaux décentralisés peuvent égaler la performance centralisée si le mouvement des données est repensé à partir des principes fondamentaux.
  • Une couche de données codées universelle libérerait une véritable échelle, en résolvant la fragmentation des chaînes, en permettant la DeFi à plusieurs milliards de dollars, en soutenant les réseaux DePIN mondiaux, et en alimentant l’IA décentralisée.

Web3 a besoin de son propre moment TCP/IP : un protocole Internet décentralisé basé sur les principes qui ont rendu l’Internet original inarrêtable, mais conçu pour préserver ce qui fait que la blockchain compte : l’absence de confiance, la résistance à la censure, et la participation sans permission qui enfin fonctionne à grande échelle.

Ce que l’industrie continue de manquer

Avant IP, les ordinateurs ne pouvaient pas communiquer entre eux via des réseaux. IP a créé une norme universelle pour acheminer les données entre deux points sur la Terre, transformant des systèmes isolés en Internet. Il est devenu l’un des trois piliers de l’infrastructure Internet (aux côtés du calcul et du stockage). Chaque application Web2 fonctionne sur TCP/IP. C’est le protocole qui a rendu la communication à l’échelle planétaire possible.

Web3 répète les mêmes erreurs précoces. Chaque blockchain a inventé sa propre couche réseau, y compris les protocoles de gossip, Turbine, Snow, Narwhal, mempools, et l’échantillonnage DA. Aucun d’eux n’est universel, et ils sont inutilement restrictifs. Tout le monde cherche la vitesse avec des blocs plus gros, plus de rollups, plus de parallélisation. Mais ils utilisent tous des modèles de réseau fondamentalement cassés.

Si nous sommes sérieux quant à la montée en charge de web3, nous avons besoin d’un protocole Internet fiable, rapide, sans confiance, tolérant aux fautes, et surtout, modulaire.

Deux décennies au MIT, résoudre le problème le plus difficile de la décentralisation

Depuis plus de deux décennies, mes recherches au MIT se concentrent sur une question : les systèmes décentralisés peuvent-ils déplacer l’information aussi vite et aussi fiablement que les systèmes centralisés — et pouvons-nous le prouver mathématiquement ?

Pour répondre à cela, nous avons combiné deux domaines qui se croisaient rarement : la théorie du codage réseau, qui optimise mathématiquement le déplacement des données, et les algorithmes distribués, dirigés par le travail fondamental de Nancy Lynch sur le consensus et la tolérance aux fautes byzantines.

Ce que nous avons découvert était clair : les systèmes décentralisés peuvent atteindre la performance du niveau centralisé — mais seulement si nous repensons le mouvement des données à partir des principes fondamentaux. Après des années de preuves et d’expériences, le Random Linear Network Coding (RLNC) est apparu comme la méthode mathématiquement optimale pour faire cela à travers des réseaux décentralisés.

Une fois que les blockchains sont arrivées, l’application est devenue évidente. L’Internet que nous avons été construit pour des intermédiaires de confiance. Le web décentralisé a besoin de son propre protocole : un conçu pour résister à la défaillance et aux attaques tout en évoluant à l’échelle mondiale. Le changement architectural est tel que :

  • la performance provient des mathématiques, pas du matériel ;
  • la coordination provient du code, pas des serveurs ;
  • et le réseau devient plus fort à mesure qu’il se décentralise.

Comme le protocole Internet original, il ne vise pas à remplacer ce qui existe, mais à permettre ce qui vient ensuite.

Les cas d’usage qui brisent l’infrastructure actuelle

Les systèmes décentralisés atteignent leurs limites au moment précis où le monde a besoin qu’ils évoluent. Quatre tendances macro émergent — et chacune expose le même goulot d’étranglement : Web3 fonctionne encore sur des hypothèses de réseau héritées des systèmes centralisés.

1. La fragmentation des L1 et L2 signifie que les blockchains évoluent localement, mais échouent à l’échelle mondiale

Nous avons maintenant plus d’une centaine de blockchains, et bien que chacune puisse optimiser son exécution locale, dès que ces réseaux doivent se coordonner globalement, ils rencontrent tous les mêmes défis : le mouvement des données est limité, inefficace, et fondamentalement sous-optimal.

Ce qui manque aux blockchains, c’est l’équivalent d’un réseau électrique, une couche partagée qui route la bande passante là où elle est nécessaire. Un protocole Internet décentralisé donnerait à chaque chaîne accès au même tissu de données codées, accélérant la propagation des blocs, la récupération de DA, et l’accès à l’état sans toucher au consensus. Et comme tout bon réseau, quand il fonctionne, la congestion est minimisée.

2. Tokenisation & DeFi à des marchés de plusieurs billions de dollars

La DeFi ne peut pas régler des trillions sur des réseaux où la propagation est lente, où la charge dépasse la capacité, ou où les goulots d’étranglement RPC centralisent l’accès. Si plusieurs chaînes étaient connectées par un réseau codé partagé, les pics de propagation ne submergeraient probablement pas une seule chaîne — ils seraient absorbés et redistribués à travers tout le réseau.

Dans les systèmes traditionnels, on construit de plus grands centres de données pour absorber la charge de pointe. Ce sont coûteux et créent des points de défaillance uniques. Dans les systèmes décentralisés, nous ne pouvons pas compter sur de tels mégacentres ; nous devons compter sur une distribution codée.

3. DePIN à l’échelle mondiale

Un réseau mondial avec des millions d’appareils et de machines autonomes ne peut pas fonctionner si chaque nœud attend une communication lente en chemin unique. Ces appareils doivent se comporter comme un organisme cohérent.

Dans les systèmes énergétiques, des réseaux flexibles absorbent à la fois les opérations minières commerciales et un sèche-cheveux. En réseautique, un protocole décentralisé doit faire de même pour les données : absorber chaque source de manière optimale, et la livrer là où elle est le plus nécessaire. Cela nécessite un stockage codé, une récupération codée, et la capacité d’utiliser chaque chemin disponible plutôt que de se reposer sur quelques chemins prédéfinis.

4. IA décentralisée

L’IA distribuée, que ce soit pour l’entraînement sur des fragments cryptés ou la coordination de flottes d’agents IA, dépend d’un mouvement de données à haut débit, tolérant aux fautes. Aujourd’hui, le stockage et le calcul décentralisés sont séparés ; l’accès est lent ; la récupération dépend de passerelles centralisées. Ce dont l’IA a besoin, c’est de logistique des données, pas d’un simple stockage : c’est-à-dire que les données sont encodées en mouvement, stockées en fragments codés, récupérées là où c’est le plus rapide, et recombinées instantanément sans dépendre d’un seul endroit.

Le prochain saut de Web3

Chaque grand saut dans l’évolution d’Internet a commencé par une avancée dans la façon dont les données se déplacent. IP a livré la connectivité globale. La fibre a permis Netflix et le cloud computing. La 4G et la 5G ont rendu possibles Uber, TikTok, et le social en temps réel. Les GPU ont déclenché la révolution du deep learning. Les contrats intelligents ont débloqué la finance programmable.

Une couche de données codées universelle ferait pour les blockchains ce que IP a fait pour l’Internet des débuts : créer les conditions pour des applications que nous ne pouvons pas encore imaginer. C’est la fondation qui transforme Web3 de expérimental à inévitable.

Muriel Médard

Muriel Médard

Muriel Médard est la co-fondatrice et PDG d’Optimum et professeure au MIT en sciences et ingénierie du logiciel, dirigeant le groupe de codage réseau et de communications fiables. Co-inventrice du Random Linear Network Coding (RLNC), ses recherches soutiennent le travail d’Optimum sur la montée en charge décentralisée. Médard est membre de l’Académie nationale d’ingénierie des États-Unis, de l’Académie royale d’ingénierie, et ancienne présidente de la société IEEE d’information theory.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)