Интернет масштабировался, потому что IP создал универсальную основу для данных. Web3 никогда не имел такой роскоши. Вместо этого он унаследовал сетевые технологии 1980-х годов и лоскутное одеяло из ад-хок протоколов, которые замедляют и перегружают сеть при попытке масштабировать реальные транзакции, не говоря уже о миллиардах ИИ-агентов, глобальных расчетных слоях или планетарной децентрализованной физической инфраструктуре сети сенсоров. Мы давно перешагнули тот момент, когда более быстрые цепочки или большие блоки могут помочь.
Резюме
Web3 не может масштабироваться из-за фрагментированной, устаревшей сетевой инфраструктуры. Ему нужен универсальный, децентрализованный протокол данных — его собственный TCP/IP — для достижения доверия и глобальной пропускной способности без доверия.
Математические прорывы, такие как RLNC, показывают, что децентрализованные сети могут достигать производительности централизованных, если переосмыслить перемещение данных с нуля.
Универсальный закодированный слой данных откроет настоящий масштаб, исправит фрагментацию цепочек, позволит реализовать триллионные DeFi, поддерживать глобальные сети DePIN и обеспечит работу децентрализованного ИИ.
Web3 нуждается в своем собственном моменте TCP/IP: децентрализованный интернет-протокол, основанный на принципах, сделавших оригинальный интернет неостановимым, но разработанный для сохранения того, что делает блокчейн важным: доверия, сопротивления цензуре и участия без разрешений, которое наконец-то работает на масштабах.
Что индустрия постоянно упускает
До IP компьютеры не могли общаться по сетям. IP создал универсальный стандарт маршрутизации данных между любыми двумя точками на Земле, превратив изолированные системы в интернет. Он стал одной из трех опор интернет-инфраструктуры (наряду с вычислениями и хранением). Каждое web2-приложение работает на TCP/IP. Это протокол, который сделал возможной коммуникацию планетарного масштаба.
Web3 повторяет те же ранние ошибки. Каждая блокчейн-система изобрела свой собственный сетевой слой, включая протоколы gossip, Turbine, Snow, Narwhal, мемпулы и DA sampling. Ни один из них не является универсальным, и все они излишне ограничены. Все гонятся за скоростью с помощью больших блоков, большего количества роллапов и параллелизации. Но все они используют по сути сломанные модели сети.
Если мы серьезно настроены на масштабирование Web3, нам нужен надежный, быстрый, доверительный, отказоустойчивый и, что важно, модульный интернет-протокол.
Два десятилетия в MIT, решение самой сложной задачи децентрализации
Более двух десятилетий мои исследования в MIT были сосредоточены на одном вопросе: могут ли децентрализованные системы передавать информацию так же быстро и надежно, как централизованные — и можем ли мы доказать это математически?
Чтобы ответить на этот вопрос, мы объединили две области, которые редко пересекались: теорию сетевого кодирования, которая математически оптимизирует перемещение данных, и распределенные алгоритмы, возглавляемые работами Нэнси Линч по консенсусу и Byzantine fault tolerance.
Что мы обнаружили, было ясно: децентрализованные системы могут достигать уровня централизованных — но только если переосмыслить перемещение данных с нуля. После многолетних доказательств и экспериментов, Random Linear Network Coding (RLNC) стал математически оптимальным методом для этого в децентрализованных сетях.
Когда появились блокчейны, применение стало очевидным. Интернет, который у нас есть, был создан для доверенных посредников. Децентрализованный веб нуждается в собственном протоколе: таком, который способен выдерживать сбои и атаки, одновременно масштабируясь глобально. Архитектурный сдвиг таков, что:
производительность достигается благодаря математике, а не аппаратуре;
координация осуществляется через код, а не серверы;
и сеть становится сильнее по мере ее децентрализации.
Как и оригинальный интернет-протокол, он предназначен не для замены существующего, а для обеспечения следующего шага.
Кейсы, которые ломают сегодняшнюю инфраструктуру
Децентрализованные системы достигают своих границ в тот момент, когда миру нужно их масштабировать. Появляются четыре макро-тренда — и каждый из них выявляет одну и ту же узкую точку: Web3 все еще работает на сетевых предположениях, унаследованных от централизованных систем.
1. Фрагментация L1 и L2 означает, что блокчейны масштабируются локально, но не глобально
Сейчас у нас более ста блокчейнов, и хотя каждый может оптимизировать свою локальную работу, при необходимости глобальной координации все они сталкиваются с одними и теми же проблемами: перемещение данных ограничено, неэффективно и по сути является субоптимальным.
Чего не хватает блокчейнам — это аналога электросети, общего слоя, который маршрутизирует пропускную способность туда, где она нужна. Децентрализованный интернет-протокол дал бы каждому цепочке доступ к одной и той же закодированной сети данных, ускоряя распространение блоков, получение данных и доступ к состоянию без вмешательства в консенсус. И как любая хорошая сеть, когда она работает, перегрузка минимальна.
2. Токенизация и DeFi на триллионных рынках
DeFi не может рассчитывать на урегулирование триллионов на сетях, где распространение медленное, система коллапсирует под нагрузкой или RPC-узлы создают централизованные точки доступа. Если бы несколько цепочек были связаны общей закодированной сетью, пики распространения, скорее всего, не перегрузили бы ни одну из них — они были бы поглощены и перераспределены по всей сети.
В традиционных системах для поглощения пиковых нагрузок строят большие дата-центры. Это дорого и создает единую точку отказа. В децентрализованных системах мы не можем полагаться на мегазаводы; мы должны полагаться на закодированное распределение.
3. DePIN в глобальном масштабе
Глобальная сеть с миллионами устройств и автономных машин не может функционировать, если каждый узел ждет медленной однопутной связи. Эти устройства должны вести себя как единый, согласованный организм.
В энергетических системах гибкие сети поглощают как коммерческие майнинговые операции, так и обычные бытовые приборы. В сетях децентрализованный протокол должен делать то же самое для данных: оптимально поглощать каждый источник и доставлять его туда, где он нужен больше всего. Для этого нужны закодированное хранение, закодированный доступ и возможность использовать все доступные пути, а не полагаться на несколько заранее определенных.
4. Децентрализованный ИИ
Распределенный ИИ, будь то обучение на зашифрованных фрагментах или координация групп ИИ-агентов, зависит от высокой пропускной способности, отказоустойчивого перемещения данных. Сегодня децентрализованное хранение и вычисления разделены; доступ медленный; получение данных зависит от централизованных шлюзов. Что нужно ИИ — это логистика данных, а не простое хранение: чтобы данные кодировались в движении, хранились в закодированных фрагментах, извлекались из любого источника, где это быстрее, и мгновенно объединялись без зависимости от одного конкретного места.
Следующий скачок Web3
Каждый крупный скачок в эволюции интернета начинался с прорыва в способах перемещения данных. IP обеспечил глобальную связность. Широкополосный интернет позволил Netflix и облачным вычислениям развиться. 4G и 5G сделали возможным Uber, TikTok и социальные сети в реальном времени. Графические процессоры запустили революцию глубокого обучения. Умные контракты открыли программируемые финансы.
Универсальный закодированный слой данных сделает для блокчейнов то, что IP сделал для раннего интернета: создаст условия для приложений, которых мы еще не можем представить. Это основа, которая превратит Web3 из экспериментальной в неизбежную.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Настоящий «момент TCP/IP» Web3 еще не наступил | Мнение
Интернет масштабировался, потому что IP создал универсальную основу для данных. Web3 никогда не имел такой роскоши. Вместо этого он унаследовал сетевые технологии 1980-х годов и лоскутное одеяло из ад-хок протоколов, которые замедляют и перегружают сеть при попытке масштабировать реальные транзакции, не говоря уже о миллиардах ИИ-агентов, глобальных расчетных слоях или планетарной децентрализованной физической инфраструктуре сети сенсоров. Мы давно перешагнули тот момент, когда более быстрые цепочки или большие блоки могут помочь.
Резюме
Web3 нуждается в своем собственном моменте TCP/IP: децентрализованный интернет-протокол, основанный на принципах, сделавших оригинальный интернет неостановимым, но разработанный для сохранения того, что делает блокчейн важным: доверия, сопротивления цензуре и участия без разрешений, которое наконец-то работает на масштабах.
Что индустрия постоянно упускает
До IP компьютеры не могли общаться по сетям. IP создал универсальный стандарт маршрутизации данных между любыми двумя точками на Земле, превратив изолированные системы в интернет. Он стал одной из трех опор интернет-инфраструктуры (наряду с вычислениями и хранением). Каждое web2-приложение работает на TCP/IP. Это протокол, который сделал возможной коммуникацию планетарного масштаба.
Web3 повторяет те же ранние ошибки. Каждая блокчейн-система изобрела свой собственный сетевой слой, включая протоколы gossip, Turbine, Snow, Narwhal, мемпулы и DA sampling. Ни один из них не является универсальным, и все они излишне ограничены. Все гонятся за скоростью с помощью больших блоков, большего количества роллапов и параллелизации. Но все они используют по сути сломанные модели сети.
Если мы серьезно настроены на масштабирование Web3, нам нужен надежный, быстрый, доверительный, отказоустойчивый и, что важно, модульный интернет-протокол.
Два десятилетия в MIT, решение самой сложной задачи децентрализации
Более двух десятилетий мои исследования в MIT были сосредоточены на одном вопросе: могут ли децентрализованные системы передавать информацию так же быстро и надежно, как централизованные — и можем ли мы доказать это математически?
Чтобы ответить на этот вопрос, мы объединили две области, которые редко пересекались: теорию сетевого кодирования, которая математически оптимизирует перемещение данных, и распределенные алгоритмы, возглавляемые работами Нэнси Линч по консенсусу и Byzantine fault tolerance.
Что мы обнаружили, было ясно: децентрализованные системы могут достигать уровня централизованных — но только если переосмыслить перемещение данных с нуля. После многолетних доказательств и экспериментов, Random Linear Network Coding (RLNC) стал математически оптимальным методом для этого в децентрализованных сетях.
Когда появились блокчейны, применение стало очевидным. Интернет, который у нас есть, был создан для доверенных посредников. Децентрализованный веб нуждается в собственном протоколе: таком, который способен выдерживать сбои и атаки, одновременно масштабируясь глобально. Архитектурный сдвиг таков, что:
Как и оригинальный интернет-протокол, он предназначен не для замены существующего, а для обеспечения следующего шага.
Кейсы, которые ломают сегодняшнюю инфраструктуру
Децентрализованные системы достигают своих границ в тот момент, когда миру нужно их масштабировать. Появляются четыре макро-тренда — и каждый из них выявляет одну и ту же узкую точку: Web3 все еще работает на сетевых предположениях, унаследованных от централизованных систем.
1. Фрагментация L1 и L2 означает, что блокчейны масштабируются локально, но не глобально
Сейчас у нас более ста блокчейнов, и хотя каждый может оптимизировать свою локальную работу, при необходимости глобальной координации все они сталкиваются с одними и теми же проблемами: перемещение данных ограничено, неэффективно и по сути является субоптимальным.
Чего не хватает блокчейнам — это аналога электросети, общего слоя, который маршрутизирует пропускную способность туда, где она нужна. Децентрализованный интернет-протокол дал бы каждому цепочке доступ к одной и той же закодированной сети данных, ускоряя распространение блоков, получение данных и доступ к состоянию без вмешательства в консенсус. И как любая хорошая сеть, когда она работает, перегрузка минимальна.
2. Токенизация и DeFi на триллионных рынках
DeFi не может рассчитывать на урегулирование триллионов на сетях, где распространение медленное, система коллапсирует под нагрузкой или RPC-узлы создают централизованные точки доступа. Если бы несколько цепочек были связаны общей закодированной сетью, пики распространения, скорее всего, не перегрузили бы ни одну из них — они были бы поглощены и перераспределены по всей сети.
В традиционных системах для поглощения пиковых нагрузок строят большие дата-центры. Это дорого и создает единую точку отказа. В децентрализованных системах мы не можем полагаться на мегазаводы; мы должны полагаться на закодированное распределение.
3. DePIN в глобальном масштабе
Глобальная сеть с миллионами устройств и автономных машин не может функционировать, если каждый узел ждет медленной однопутной связи. Эти устройства должны вести себя как единый, согласованный организм.
В энергетических системах гибкие сети поглощают как коммерческие майнинговые операции, так и обычные бытовые приборы. В сетях децентрализованный протокол должен делать то же самое для данных: оптимально поглощать каждый источник и доставлять его туда, где он нужен больше всего. Для этого нужны закодированное хранение, закодированный доступ и возможность использовать все доступные пути, а не полагаться на несколько заранее определенных.
4. Децентрализованный ИИ
Распределенный ИИ, будь то обучение на зашифрованных фрагментах или координация групп ИИ-агентов, зависит от высокой пропускной способности, отказоустойчивого перемещения данных. Сегодня децентрализованное хранение и вычисления разделены; доступ медленный; получение данных зависит от централизованных шлюзов. Что нужно ИИ — это логистика данных, а не простое хранение: чтобы данные кодировались в движении, хранились в закодированных фрагментах, извлекались из любого источника, где это быстрее, и мгновенно объединялись без зависимости от одного конкретного места.
Следующий скачок Web3
Каждый крупный скачок в эволюции интернета начинался с прорыва в способах перемещения данных. IP обеспечил глобальную связность. Широкополосный интернет позволил Netflix и облачным вычислениям развиться. 4G и 5G сделали возможным Uber, TikTok и социальные сети в реальном времени. Графические процессоры запустили революцию глубокого обучения. Умные контракты открыли программируемые финансы.
Универсальный закодированный слой данных сделает для блокчейнов то, что IP сделал для раннего интернета: создаст условия для приложений, которых мы еще не можем представить. Это основа, которая превратит Web3 из экспериментальной в неизбежную.