Este história não tem uma introdução muito grandiosa, é apenas uma queixa comum de um grupo de pessoas que escrevem código.



Seja fazendo DeFi, jogos ou aplicações Web3, todos acabam presos no mesmo problema: dados. Não é que não haja dados, mas os dados simplesmente não são confiáveis. Ou a conexão é lenta demais, ou os dados são falsos, ou são caros demais para que alguém possa usar. Seu contrato inteligente pode ser incrível, mas se os dados inseridos forem lixo, o resultado também só pode ser desastre.

Portanto, a questão se resume a uma: como fazer a blockchain confiar em informações do mundo real?

Quem começou a fazer isso não tinha muita fama. Engenheiros, cientistas de dados, alguns vindo de grandes empresas, outros já atuando há tempo no universo crypto. Todos concordavam — sem uma camada de dados confiável, descentralização é apenas teoria. Eles gastaram bastante tempo estudando por que sempre surgiam problemas no passado: ataques, atrasos explosivos, mecanismos de incentivo desalinhados. Com recursos limitados, as iterações eram lentas, mas esse período lhes deu uma base: sem pressa, é preciso validar, nunca falar de "confiança" de forma leviana.

O primeiro produto, na verdade, era bem rudimentar. As versões iniciais só conseguiam transmitir informações de preços, e frequentemente apresentavam erros. Dados off-chain não correspondiam aos on-chain, e tentar validar na cadeia era caro demais, além de os atrasos serem um pesadelo. A equipe não se escondia, enfrentava os problemas de frente. Eles experimentaram uma combinação de cálculos off-chain com validações on-chain, descobrindo duas abordagens: o modo de "push" e o modo de "pull". Um priorizava velocidade, o outro, precisão.

Depois perceberam que essa "não pureza" na abordagem era, na verdade, a maior flexibilidade.

Mais tarde, só confiar em criptografia e matemática não era suficiente. Eles incorporaram mecanismos de validação movidos por IA — não para parecerem impressionantes, mas para acrescentar uma camada extra de defesa. Modelos de IA podem detectar dados anômalos em tempo real, comparar múltiplas fontes, aumentando significativamente a tolerância a falhas.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 3
  • Republicar
  • Partilhar
Comentar
0/400
TommyTeacher1vip
· 17h atrás
ngl A questão central dos oráculos é a confiança, lixo entra, lixo sai. Mesmo os contratos mais avançados não podem salvar.
Ver originalResponder0
PerennialLeekvip
· 17h atrás
Porra, esta é a via de redenção do oracle. Dar lixo de dados realmente só consegue gerar desastres, já vi contratos falharem por causa de fontes de dados que deram errado. A combinação de push e pull que eu apoio é muito melhor do que o purismo, essa é a prática real.
Ver originalResponder0
TopEscapeArtistvip
· 17h atrás
Hum... não é o velho truque do problema de Oracle, trocar por uma camada de IA resolve? Tenho dúvidas.
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)