Source : CoinEdition
Titre original : Vitalik Buterin détaille la stratégie de mise à l’échelle d’Ethereum axée sur la bande passante
Lien original :
Ethereum privilégie la mise à l’échelle de la bande passante plutôt que la réduction de la latence pour préserver la décentralisation et l’accès mondial aux validateurs.
Les limites physiques et économiques rendent les réductions extrêmes de latence risquées, renforçant la conception en couches d’Ethereum.
Les réseaux L2 restent essentiels car Ethereum agit comme une couche de coordination mondiale, et non comme un système en temps réel.
Vitalik Buterin a exposé un cadre détaillé sur la façon dont Ethereum devrait évoluer en termes de mise à l’échelle, arguant que l’augmentation de la bande passante des données est une voie plus sûre et plus durable que la réduction de la latence des transactions. Ses remarques placent les récentes et prochaines mises à niveau d’Ethereum dans un contexte technique et économique plus large, en insistant sur la décentralisation, l’accessibilité mondiale et le rôle à long terme des réseaux de couche 2.
Buterin a expliqué que la feuille de route d’Ethereum, incluant des technologies telles que PeerDAS et les preuves à divulgation nulle de connaissance (ZKP), permet au réseau de se scaler par orders of magnitude sans violer les contraintes physiques. Augmenter la bande passante, a-t-il dit, ne rencontre pas les mêmes limites strictes que la réduction de la latence, qui est finalement contrainte par la vitesse de la lumière.
Augmenter la bande passante est plus sûr que de réduire la latence. Avec PeerDAS et ZKP, nous savons comment scaler, et potentiellement nous pouvons multiplier par des milliers le volume par rapport au statu quo. Les chiffres deviennent bien plus favorables qu’auparavant.
Au-delà de la physique, les réductions de latence introduisent également des compromis pratiques, notamment la nécessité de soutenir les validateurs en milieu rural et hors centres de données, de maintenir la résistance à la censure et l’anonymat, et de garantir que l’exploitation d’un nœud reste économiquement viable en dehors des grands centres financiers.
Il a averti que même de faibles désavantages économiques pourraient conduire à une concentration géographique des validateurs. Si le staking dans certaines régions génère systématiquement des rendements inférieurs, la participation tendrait naturellement à se concentrer dans ces zones, ce qui compromettrait la décentralisation. Pour cette raison, la conception d’Ethereum doit passer ce qu’il a appelé un « test de sortie », c’est-à-dire que le réseau doit rester décentralisé sans intervention sociale ou organisationnelle constante.
Améliorations réalistes de la latence et dépendance à L2
Tout en rejetant les réductions extrêmes de latence, Buterin a reconnu que des améliorations modérées sont possibles. Des optimisations peer-to-peer, telles que le codage par effacement, et des changements architecturaux permettant de réduire le nombre de nœuds impliqués par créneau pourraient raccourcir les temps de propagation des messages. Collectivement, ces changements pourraient plausiblement réduire le temps de bloc à une fourchette de deux à quatre secondes, ce qui représenterait une amélioration de trois à six fois par rapport aux conditions actuelles.
Cependant, il a souligné qu’Ethereum n’est pas conçu pour fonctionner comme un système en temps réel pour des applications ultra-rapides. Au contraire, il sert de couche de coordination globale, ou « battement de cœur », pour l’activité économique et sociale. Les applications nécessitant une réactivité plus rapide continueront de s’appuyer sur des réseaux de couche 2 et des composants hors chaîne, même si la couche de base évolue.
Ethereum comparé à BitTorrent et Linux
Pour illustrer cette vision, Buterin a fait des comparaisons avec BitTorrent et Linux. Comme BitTorrent, Ethereum vise à combiner décentralisation et participation à grande échelle, permettant une distribution efficace sans contrôle centralisé. Il a noté que BitTorrent est utilisé depuis longtemps à des fins légitimes, notamment pour la distribution de logiciels, les mises à jour d’infrastructures d’entreprise, les publications de données publiques et les archives scientifiques.
Une métaphore pour Ethereum est BitTorrent, et comment ce réseau peer-to-peer combine décentralisation et échelle de masse. L’objectif d’Ethereum est de faire la même chose mais avec consensus. Une autre métaphore pour Ethereum est Linux.
L’analogie avec Linux met en avant la fondation open-source d’Ethereum et son adoption large. Linux est utilisé par les gouvernements, les entreprises et des milliards d’utilisateurs tout en supportant des distributions très spécialisées et minimalistes. Selon Buterin, la couche de base d’Ethereum devrait également rester une plateforme neutre et ouverte pour les cas d’usage financiers, d’identité et de gouvernance. En même temps, son écosystème de couche 2 répond à des demandes à la fois hyper-locales et à l’échelle planétaire.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Vitalik Buterin détaille la stratégie de mise à l'échelle axée sur la bande passante d'Ethereum
Source : CoinEdition Titre original : Vitalik Buterin détaille la stratégie de mise à l’échelle d’Ethereum axée sur la bande passante Lien original :
Vitalik Buterin a exposé un cadre détaillé sur la façon dont Ethereum devrait évoluer en termes de mise à l’échelle, arguant que l’augmentation de la bande passante des données est une voie plus sûre et plus durable que la réduction de la latence des transactions. Ses remarques placent les récentes et prochaines mises à niveau d’Ethereum dans un contexte technique et économique plus large, en insistant sur la décentralisation, l’accessibilité mondiale et le rôle à long terme des réseaux de couche 2.
Buterin a expliqué que la feuille de route d’Ethereum, incluant des technologies telles que PeerDAS et les preuves à divulgation nulle de connaissance (ZKP), permet au réseau de se scaler par orders of magnitude sans violer les contraintes physiques. Augmenter la bande passante, a-t-il dit, ne rencontre pas les mêmes limites strictes que la réduction de la latence, qui est finalement contrainte par la vitesse de la lumière.
Au-delà de la physique, les réductions de latence introduisent également des compromis pratiques, notamment la nécessité de soutenir les validateurs en milieu rural et hors centres de données, de maintenir la résistance à la censure et l’anonymat, et de garantir que l’exploitation d’un nœud reste économiquement viable en dehors des grands centres financiers.
Il a averti que même de faibles désavantages économiques pourraient conduire à une concentration géographique des validateurs. Si le staking dans certaines régions génère systématiquement des rendements inférieurs, la participation tendrait naturellement à se concentrer dans ces zones, ce qui compromettrait la décentralisation. Pour cette raison, la conception d’Ethereum doit passer ce qu’il a appelé un « test de sortie », c’est-à-dire que le réseau doit rester décentralisé sans intervention sociale ou organisationnelle constante.
Améliorations réalistes de la latence et dépendance à L2
Tout en rejetant les réductions extrêmes de latence, Buterin a reconnu que des améliorations modérées sont possibles. Des optimisations peer-to-peer, telles que le codage par effacement, et des changements architecturaux permettant de réduire le nombre de nœuds impliqués par créneau pourraient raccourcir les temps de propagation des messages. Collectivement, ces changements pourraient plausiblement réduire le temps de bloc à une fourchette de deux à quatre secondes, ce qui représenterait une amélioration de trois à six fois par rapport aux conditions actuelles.
Cependant, il a souligné qu’Ethereum n’est pas conçu pour fonctionner comme un système en temps réel pour des applications ultra-rapides. Au contraire, il sert de couche de coordination globale, ou « battement de cœur », pour l’activité économique et sociale. Les applications nécessitant une réactivité plus rapide continueront de s’appuyer sur des réseaux de couche 2 et des composants hors chaîne, même si la couche de base évolue.
Ethereum comparé à BitTorrent et Linux
Pour illustrer cette vision, Buterin a fait des comparaisons avec BitTorrent et Linux. Comme BitTorrent, Ethereum vise à combiner décentralisation et participation à grande échelle, permettant une distribution efficace sans contrôle centralisé. Il a noté que BitTorrent est utilisé depuis longtemps à des fins légitimes, notamment pour la distribution de logiciels, les mises à jour d’infrastructures d’entreprise, les publications de données publiques et les archives scientifiques.
L’analogie avec Linux met en avant la fondation open-source d’Ethereum et son adoption large. Linux est utilisé par les gouvernements, les entreprises et des milliards d’utilisateurs tout en supportant des distributions très spécialisées et minimalistes. Selon Buterin, la couche de base d’Ethereum devrait également rester une plateforme neutre et ouverte pour les cas d’usage financiers, d’identité et de gouvernance. En même temps, son écosystème de couche 2 répond à des demandes à la fois hyper-locales et à l’échelle planétaire.