Інтернет масштабувався, тому що IP створив універсальну мережу для даних. Web3 ніколи не отримав такої розкоші. Замість цього він успадкував мережеві технології 1980-х років і клаптикову суміш ад-хок протоколів, які сповільнюють і ускладнюють роботу при спробі запуску реальних транзакцій у масштабі, не кажучи вже про мільярди AI-агентів, глобальні рівні розрахункові шари або планетарний масштаб децентралізованої фізичної інфраструктури мережі сенсорних вузлів. Ми давно минули той момент, коли швидші ланцюги або більші блоки могли б допомогти
Підсумок
Web3 не може масштабуватися через свою фрагментовану, застарілу мережеву інфраструктуру. Йому потрібен універсальний, децентралізований протокол даних — власний TCP/IP — щоб досягти бездовірчого, глобального пропускного здатності.
Математичні прориви, такі як RLNC, показують, що децентралізовані мережі можуть відповідати централізованій продуктивності, якщо переробити переміщення даних з перших принципів.
Універсальний закодований рівень даних відкриє справжній масштаб, виправить фрагментацію ланцюгів, дозволить трильйонним доларам DeFi, підтримуватиме глобальні мережі DePIN і забезпечить децентралізований AI.
Web3 потребує свого моменту TCP/IP: децентралізованого Інтернет-протоколу, побудованого на принципах, що зробили оригінальний інтернет нездоланним, але спроектованого так, щоб зберегти те, що робить блокчейн важливим: бездовірчість, стійкість до цензури та участь без дозволу, яка нарешті працює у масштабі.
Що галузь постійно пропускає
До IP комп’ютери не могли спілкуватися через мережі. IP створив універсальний стандарт маршрутизації даних між будь-якими двома точками на Землі, перетворивши ізольовані системи на інтернет. Він став однією з трьох опор інфраструктури інтернету (разом із обчисленнями та зберіганням). Кожен веб2-додаток працює на TCP/IP. Це протокол, який зробив можливим планетарне спілкування.
Web3 повторює ті самі ранні помилки. Кожен блокчейн винайшов свій власний мережевий рівень, включаючи gossip-протоколи, Turbine, Snow, Narwhal, мемпули та DA sampling. Жоден з них не є універсальним, і всі вони без потреби обмежують. Усі прагнуть швидкості з більшими блоками, більше роллапами, більшою паралелізацією. Але всі вони використовують принципово зламані мережеві моделі.
Якщо ми серйозно налаштовані масштабувати Web3, нам потрібен надійно швидкий, бездовірчий, відмовостійкий і, що найголовніше, модульний інтернет-протокол.
Два десятиліття в MIT, розв’язуючи найскладнішу проблему децентралізації
Більше двох десятиліть мої дослідження в MIT зосереджені на одному питанні: Чи можуть децентралізовані системи передавати інформацію так швидко і надійно, як централізовані — і чи можемо ми зробити це математично доведеним?
Щоб відповісти на це, ми об’єднали дві галузі, які рідко перетиналися: теорію мережевого кодування, яка математично оптимізує переміщення даних, і розподілені алгоритми, під керівництвом Ненсі Лінч, яка зробила фундаментальну роботу з консенсусу і стійкості до віртуанних збоїв.
Що ми виявили, було ясно: децентралізовані системи можуть досягти рівня централізованої продуктивності — але лише якщо переробити переміщення даних з перших принципів. Після років доказів і експериментів, випадкове лінійне мережеве кодування (RLNC) стало математично оптимальним методом для цього у децентралізованих мережах.
Як тільки з’явилися блокчейни, застосування стало очевидним. Інтернет, який у нас є, був побудований для довірчих посередників. Децентралізований веб потребує власного протоколу: такого, що витримує збої і атаки, одночасно масштабуючись глобально. Архітектурний зсув полягає в тому, що:
продуктивність походить з математики, а не з апаратного забезпечення;
координація походить з коду, а не з серверів;
і мережа стає сильнішою, коли вона децентралізується.
Як і оригінальний Інтернет-протокол, він не призначений замінити існуюче, а щоб дати можливість тому, що буде далі.
Випадки використання, що руйнують сучасну інфраструктуру
Децентралізовані системи досягають своїх меж у той самий момент, коли світ потребує їх масштабування. Виникає чотири макро-тренди — і кожен з них відкриває ту саму вузьку ділянку: Web3 все ще працює на мережевих припущеннях, успадкованих від централізованих систем.
1. Фрагментація L1 і L2 означає, що блокчейни масштабуються локально, але не глобально
Зараз у нас понад сотню блокчейнів, і хоча кожен може оптимізувати своє локальне виконання, у момент, коли ці мережі потрібно координувати глобально, вони всі стикаються з однаковими викликами: переміщення даних обмежене, неефективне і за своєю суттю субоптимальне.
Чого бракує блокчейнам — це еквівалент електричної мережі, спільного шару, який маршрутизуватиме пропускну здатність туди, де вона потрібна. Децентралізований Інтернет-протокол дав би кожній ланцюжку доступ до однієї й тієї ж закодованої мережі даних, прискорюючи поширення блоків, отримання DA і доступ до стану без залучення консенсусу. І, як будь-яка хороша мережа, коли вона працює, затори мінімізовані.
2. Токенізація та DeFi на трильйонних ринках
DeFi не може розраховувати на розрахунки трильйонів у мережах, де поширення повільне, вони колапсують під навантаженням або де RPC-узли стають центрами доступу. Якби кілька ланцюжків були з’єднані спільною закодованою мережею, сплески поширення навряд чи перевищили б можливості будь-якого окремого ланцюжка — вони були б поглинені і перераспределені по всій мережі.
У традиційних системах ви будуєте більші дата-центри для поглинання пікових навантажень. Це дорого і створює єдині точки відмови. У децентралізованих системах ми не можемо покладатися на мегазали; ми повинні покладатися на закодований розподіл.
3. DePIN у глобальному масштабі
Глобальна мережа з мільйонами пристроїв і автономних машин не може функціонувати, якщо кожен вузол чекає на повільну однопутну комунікацію. Ці пристрої повинні діяти як єдиний, узгоджений організм.
У енергетичних системах гнучкі мережі поглинають як комерційні майнингові операції, так і один фен, що працює. У мережах децентралізований протокол має робити те саме для даних: поглинати кожне джерело оптимально і доставляти його туди, де воно найбільше потрібно. Це вимагає закодованого зберігання, закодованого отримання і здатності використовувати кожен доступний шлях, а не покладатися на кілька заздалегідь визначених.
4. Децентралізований AI
Розподілений AI, чи то навчання на зашифрованих фрагментах, чи координація флотів AI-агентів, залежить від високопродуктивного, відмовостійкого переміщення даних. Сьогодні зберігання і обчислення розділені; доступ повільний; отримання залежить від централізованих шлюзів. Що потрібно AI — це логістика даних, а не просте зберігання: тобто, що дані кодуються під час руху, зберігаються у закодованих фрагментах, отримуються з будь-якого найшвидшого джерела і миттєво об’єднуються без залежності від будь-якого окремого місця.
Наступний крок Web3
Кожен великий прорив у розвитку інтернету починався з відкриття у тому, як переміщуються дані. IP забезпечив глобальну зв’язність. Широкосмуговий доступ зробив можливим Netflix і хмарні обчислення. 4G і 5G зробили Uber, TikTok і реальний час соціальних мереж можливими. GPU спричинили революцію глибокого навчання. Смарт-контракти відкрили програмовані фінанси.
Універсальний закодований рівень даних зробить для блокчейнів те, що IP зробив для раннього інтернету: створить умови для застосунків, яких ми ще не уявляємо. Це основа, яка перетворює Web3 із експерименту у неминучість.
Мюріель Медард
Мюріель Медард — співзасновниця та CEO компанії Optimum і професор у MIT з програмної науки та інженерії, керівник групи мережевого кодування та надійних комунікацій. Співавтор випадкового лінійного мережевого кодування (RLNC), її дослідження лежать в основі роботи Optimum щодо децентралізованого масштабування. Медард є членом Національної академії інженерії США, Королівської академії інженерії та колишнім президентом Товариства теорії інформації IEEE.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Реальний "TCP/IP момент" Web3 ще не настав | Думка
Інтернет масштабувався, тому що IP створив універсальну мережу для даних. Web3 ніколи не отримав такої розкоші. Замість цього він успадкував мережеві технології 1980-х років і клаптикову суміш ад-хок протоколів, які сповільнюють і ускладнюють роботу при спробі запуску реальних транзакцій у масштабі, не кажучи вже про мільярди AI-агентів, глобальні рівні розрахункові шари або планетарний масштаб децентралізованої фізичної інфраструктури мережі сенсорних вузлів. Ми давно минули той момент, коли швидші ланцюги або більші блоки могли б допомогти
Підсумок
Web3 потребує свого моменту TCP/IP: децентралізованого Інтернет-протоколу, побудованого на принципах, що зробили оригінальний інтернет нездоланним, але спроектованого так, щоб зберегти те, що робить блокчейн важливим: бездовірчість, стійкість до цензури та участь без дозволу, яка нарешті працює у масштабі.
Що галузь постійно пропускає
До IP комп’ютери не могли спілкуватися через мережі. IP створив універсальний стандарт маршрутизації даних між будь-якими двома точками на Землі, перетворивши ізольовані системи на інтернет. Він став однією з трьох опор інфраструктури інтернету (разом із обчисленнями та зберіганням). Кожен веб2-додаток працює на TCP/IP. Це протокол, який зробив можливим планетарне спілкування.
Web3 повторює ті самі ранні помилки. Кожен блокчейн винайшов свій власний мережевий рівень, включаючи gossip-протоколи, Turbine, Snow, Narwhal, мемпули та DA sampling. Жоден з них не є універсальним, і всі вони без потреби обмежують. Усі прагнуть швидкості з більшими блоками, більше роллапами, більшою паралелізацією. Але всі вони використовують принципово зламані мережеві моделі.
Якщо ми серйозно налаштовані масштабувати Web3, нам потрібен надійно швидкий, бездовірчий, відмовостійкий і, що найголовніше, модульний інтернет-протокол.
Два десятиліття в MIT, розв’язуючи найскладнішу проблему децентралізації
Більше двох десятиліть мої дослідження в MIT зосереджені на одному питанні: Чи можуть децентралізовані системи передавати інформацію так швидко і надійно, як централізовані — і чи можемо ми зробити це математично доведеним?
Щоб відповісти на це, ми об’єднали дві галузі, які рідко перетиналися: теорію мережевого кодування, яка математично оптимізує переміщення даних, і розподілені алгоритми, під керівництвом Ненсі Лінч, яка зробила фундаментальну роботу з консенсусу і стійкості до віртуанних збоїв.
Що ми виявили, було ясно: децентралізовані системи можуть досягти рівня централізованої продуктивності — але лише якщо переробити переміщення даних з перших принципів. Після років доказів і експериментів, випадкове лінійне мережеве кодування (RLNC) стало математично оптимальним методом для цього у децентралізованих мережах.
Як тільки з’явилися блокчейни, застосування стало очевидним. Інтернет, який у нас є, був побудований для довірчих посередників. Децентралізований веб потребує власного протоколу: такого, що витримує збої і атаки, одночасно масштабуючись глобально. Архітектурний зсув полягає в тому, що:
Як і оригінальний Інтернет-протокол, він не призначений замінити існуюче, а щоб дати можливість тому, що буде далі.
Випадки використання, що руйнують сучасну інфраструктуру
Децентралізовані системи досягають своїх меж у той самий момент, коли світ потребує їх масштабування. Виникає чотири макро-тренди — і кожен з них відкриває ту саму вузьку ділянку: Web3 все ще працює на мережевих припущеннях, успадкованих від централізованих систем.
1. Фрагментація L1 і L2 означає, що блокчейни масштабуються локально, але не глобально
Зараз у нас понад сотню блокчейнів, і хоча кожен може оптимізувати своє локальне виконання, у момент, коли ці мережі потрібно координувати глобально, вони всі стикаються з однаковими викликами: переміщення даних обмежене, неефективне і за своєю суттю субоптимальне.
Чого бракує блокчейнам — це еквівалент електричної мережі, спільного шару, який маршрутизуватиме пропускну здатність туди, де вона потрібна. Децентралізований Інтернет-протокол дав би кожній ланцюжку доступ до однієї й тієї ж закодованої мережі даних, прискорюючи поширення блоків, отримання DA і доступ до стану без залучення консенсусу. І, як будь-яка хороша мережа, коли вона працює, затори мінімізовані.
2. Токенізація та DeFi на трильйонних ринках
DeFi не може розраховувати на розрахунки трильйонів у мережах, де поширення повільне, вони колапсують під навантаженням або де RPC-узли стають центрами доступу. Якби кілька ланцюжків були з’єднані спільною закодованою мережею, сплески поширення навряд чи перевищили б можливості будь-якого окремого ланцюжка — вони були б поглинені і перераспределені по всій мережі.
У традиційних системах ви будуєте більші дата-центри для поглинання пікових навантажень. Це дорого і створює єдині точки відмови. У децентралізованих системах ми не можемо покладатися на мегазали; ми повинні покладатися на закодований розподіл.
3. DePIN у глобальному масштабі
Глобальна мережа з мільйонами пристроїв і автономних машин не може функціонувати, якщо кожен вузол чекає на повільну однопутну комунікацію. Ці пристрої повинні діяти як єдиний, узгоджений організм.
У енергетичних системах гнучкі мережі поглинають як комерційні майнингові операції, так і один фен, що працює. У мережах децентралізований протокол має робити те саме для даних: поглинати кожне джерело оптимально і доставляти його туди, де воно найбільше потрібно. Це вимагає закодованого зберігання, закодованого отримання і здатності використовувати кожен доступний шлях, а не покладатися на кілька заздалегідь визначених.
4. Децентралізований AI
Розподілений AI, чи то навчання на зашифрованих фрагментах, чи координація флотів AI-агентів, залежить від високопродуктивного, відмовостійкого переміщення даних. Сьогодні зберігання і обчислення розділені; доступ повільний; отримання залежить від централізованих шлюзів. Що потрібно AI — це логістика даних, а не просте зберігання: тобто, що дані кодуються під час руху, зберігаються у закодованих фрагментах, отримуються з будь-якого найшвидшого джерела і миттєво об’єднуються без залежності від будь-якого окремого місця.
Наступний крок Web3
Кожен великий прорив у розвитку інтернету починався з відкриття у тому, як переміщуються дані. IP забезпечив глобальну зв’язність. Широкосмуговий доступ зробив можливим Netflix і хмарні обчислення. 4G і 5G зробили Uber, TikTok і реальний час соціальних мереж можливими. GPU спричинили революцію глибокого навчання. Смарт-контракти відкрили програмовані фінанси.
Універсальний закодований рівень даних зробить для блокчейнів те, що IP зробив для раннього інтернету: створить умови для застосунків, яких ми ще не уявляємо. Це основа, яка перетворює Web3 із експерименту у неминучість.
Мюріель Медард
Мюріель Медард — співзасновниця та CEO компанії Optimum і професор у MIT з програмної науки та інженерії, керівник групи мережевого кодування та надійних комунікацій. Співавтор випадкового лінійного мережевого кодування (RLNC), її дослідження лежать в основі роботи Optimum щодо децентралізованого масштабування. Медард є членом Національної академії інженерії США, Королівської академії інженерії та колишнім президентом Товариства теорії інформації IEEE.