Os protocolos de armazenamento distribuído frequentemente afirmam que, mesmo que 1/3 dos nós falhem ou atuem de forma maliciosa, a segurança dos dados ainda está garantida. Mas esse modelo matemático tem uma premissa frequentemente ignorada — que esses 1/3 dos nós devem vir de entidades completamente independentes.
Na prática? Uma grande provedora de serviços em nuvem ou uma instituição pode já controlar 40% dos nós na rede, e esses nós podem até estar hospedados no mesmo centro de dados ou na mesma zona de disponibilidade. Assim, a suposta tolerância a falhas descentralizada é drasticamente reduzida.
Se você precisa armazenar dados sensíveis com alta resistência a ataques, apenas contar o número de nós não é suficiente. É preciso fazer uma "verificação de entidades" — usar exploradores de blocos e ferramentas de análise de rede para verificar em quais nós seus fragmentos de dados estão alocados, se esses nós têm faixas de IP agrupadas, se a origem dos fundos de staking é única, entre outros fatores.
Assim que detectar que os dados estão "concentrados" nas mãos de alguns grandes controladores, é necessário fazer o reupload ou ajustar os parâmetros de configuração, acionando o mecanismo de redistribuição dos dados. Em resumo, a segurança de uma rede distribuída não é algo fixo no protocolo, mas depende do grau real de dispersão. Para usuários que não se importam com a distribuição geográfica dos nós, esses protocolos e o armazenamento em nuvem centralizado tradicional na verdade não diferem muito, e podem até ter desempenho inferior.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Os protocolos de armazenamento distribuído frequentemente afirmam que, mesmo que 1/3 dos nós falhem ou atuem de forma maliciosa, a segurança dos dados ainda está garantida. Mas esse modelo matemático tem uma premissa frequentemente ignorada — que esses 1/3 dos nós devem vir de entidades completamente independentes.
Na prática? Uma grande provedora de serviços em nuvem ou uma instituição pode já controlar 40% dos nós na rede, e esses nós podem até estar hospedados no mesmo centro de dados ou na mesma zona de disponibilidade. Assim, a suposta tolerância a falhas descentralizada é drasticamente reduzida.
Se você precisa armazenar dados sensíveis com alta resistência a ataques, apenas contar o número de nós não é suficiente. É preciso fazer uma "verificação de entidades" — usar exploradores de blocos e ferramentas de análise de rede para verificar em quais nós seus fragmentos de dados estão alocados, se esses nós têm faixas de IP agrupadas, se a origem dos fundos de staking é única, entre outros fatores.
Assim que detectar que os dados estão "concentrados" nas mãos de alguns grandes controladores, é necessário fazer o reupload ou ajustar os parâmetros de configuração, acionando o mecanismo de redistribuição dos dados. Em resumo, a segurança de uma rede distribuída não é algo fixo no protocolo, mas depende do grau real de dispersão. Para usuários que não se importam com a distribuição geográfica dos nós, esses protocolos e o armazenamento em nuvem centralizado tradicional na verdade não diferem muito, e podem até ter desempenho inferior.