Si l'on compare la blockchain à une immense usine automatisée fonctionnant 24h/24, alors l'oracle en est le capteur le plus essentiel — il détermine si tout le système peut percevoir avec précision le monde extérieur.
À la fin de 2025, les réseaux de seconde couche de l'écosystème Bitcoin sont déjà nombreux. Mais derrière cette apparence de prospérité, j'ai découvert un phénomène intéressant : trouver un véritable partenaire entrepreneurial partageant la même vision n'est plus aussi simple que de faire correspondre des CV. Plus souvent, c'est comme une résonance sous un "phare numérique" — une résonance au niveau du code.
Lors d'une activité communautaire de développeurs l'année dernière, j'ai rencontré mon actuel associé "Lao Mo". À l'époque, nous réfléchissions tous les deux à la même question : lorsque la valeur du Bitcoin est déjà reconnue et que la liquidité continue de se libérer, comment faire entrer les données d'actifs réels hors chaîne de la manière la plus fluide possible dans BTC L2 ? Ce sentiment de trouver un âme sœur, c'est comme dans une jungle enveloppée de brouillard, deux personnes réglant leur fréquence sur la même chaîne qui finissent par se croiser.
Ce que nous faisons maintenant, c'est une toute nouvelle application décentralisée, dont le nom de code interne est "Omni-Anchor". La base repose sur le cadre écologique existant. Le problème central que ce produit veut résoudre est très simple : le retard dans la tarification des actifs dans l'écosystème BTC.
Du point de vue de l'architecture technique, de nombreux schémas d'oracles actuels utilisent une combinaison de consensus multi-nœuds et de preuves à divulgation nulle. Ce mécanisme peut synchroniser les fluctuations des prix des actifs du monde réel hors chaîne sur la blockchain en moins d'une seconde. Cela semble idéal, mais lors du déploiement réel, plusieurs obstacles apparaissent.
Premièrement, la redondance des données. Si chaque chaîne et chaque application doit déployer des nœuds de validation indépendants, le coût devient prohibitif. Deuxièmement, le coût en temps. Plus il y a de tours de consensus dans le processus de validation, plus le délai de confirmation est long. Troisièmement, la flexibilité. Beaucoup de schémas existants ont une architecture relativement fixe, et supporter de nouveaux types d'actifs ou sources de données nécessite des coûts de modification élevés.
Notre approche consiste à travailler sur la modularité. En résumé, il s'agit de transformer la "collecte de données"
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
5
Reposter
Partager
Commentaire
0/400
fren.eth
· Il y a 13h
Les oracles sont vraiment le point faible, bien dit
Ce gars Lao Mo est fiable, il est difficile de trouver des personnes aussi cohérentes dans un canal
Le nom Omni-Anchor sonne un peu comme quelque chose d'important, la solution modulaire est vraiment la voie à suivre
Le problème du retard dans la tarification des actifs a été touché, c'est trop évident sur BTC L2
Attends, le coût de la redondance des données est si élevé ? Comment une petite équipe peut-elle survivre ?
Ce que tu dis sur la résonance du code me met à l'aise, j'ai enfin rencontré des personnes qui comprennent
Voir l'originalRépondre0
ZKProofster
· Il y a 13h
Honnêtement, l'approche modulaire de l'oracle semble sympa sur le papier, mais laisse-moi deviner—tu fais toujours confiance à un ensemble de validateurs, hein ? Le vrai goulot d'étranglement n'est pas l'architecture, c'est toujours l'alignement des incitations... j'ai déjà vécu ça
Voir l'originalRépondre0
SorryRugPulled
· Il y a 13h
Old Mo, ce gars est vraiment pas mal, je comprends le sentiment de trouver la chaîne
La redondance des données est vraiment un gros défi, chaque solution étant plus coûteuse que la précédente
Omni-Anchor semble assez intéressant, mais le retard dans la tarification des actifs sur BTC L2 est-il vraiment si urgent ?
Il y a tellement de solutions d'oracles, votre approche modulaire peut-elle vraiment être mise en œuvre, ou est-ce encore un projet PPT ?
La synchronisation à l’échelle de la milliseconde semble géniale, mais comment contrôler les coûts ? C’est vraiment la clé
Voir l'originalRépondre0
ChainWallflower
· Il y a 13h
Les oracles sont vraiment un point critique, la métaphore du "capteur" est excellente.
Ce gars Old Mo est fiable, ce n'est pas évident de tomber sur un partenaire avec une telle fréquence de codage alignée.
J'ai compris les trois problèmes de redondance des données, j'ai hâte de voir si Omni-Anchor pourra vraiment réduire les coûts... un peu d'espoir.
Mais pour revenir à la question, concernant la solution modulaire, il semble que plusieurs équipes soient en train d'expérimenter, comment différencier cela ?
Voir l'originalRépondre0
MiningDisasterSurvivor
· Il y a 13h
Encore la même chose, faire des grands discours, mais le problème clé n'est toujours pas résolu.
Les oracles modulaires, je les ai entendus plus d'une dizaine de fois, la même chose disait la bande de 2018.
Coût des nœuds, délai de consensus, adaptation des actifs... Frère, ces pièges sont des faux problèmes, le vrai goulot d'étranglement, c'est si le mécanisme d'incitation peut fonctionner ou non.
"Omni-Anchor" sonne plutôt chic, mais j'ai peur que ce soit encore une IP qui disparaît après avoir levé des fonds.
La prospérité du BTC L2 ? Je vois ça comme une façade pour le minage de liquidités, dès que le marché baissier arrive, tout revient à la surface.
Si l'on compare la blockchain à une immense usine automatisée fonctionnant 24h/24, alors l'oracle en est le capteur le plus essentiel — il détermine si tout le système peut percevoir avec précision le monde extérieur.
À la fin de 2025, les réseaux de seconde couche de l'écosystème Bitcoin sont déjà nombreux. Mais derrière cette apparence de prospérité, j'ai découvert un phénomène intéressant : trouver un véritable partenaire entrepreneurial partageant la même vision n'est plus aussi simple que de faire correspondre des CV. Plus souvent, c'est comme une résonance sous un "phare numérique" — une résonance au niveau du code.
Lors d'une activité communautaire de développeurs l'année dernière, j'ai rencontré mon actuel associé "Lao Mo". À l'époque, nous réfléchissions tous les deux à la même question : lorsque la valeur du Bitcoin est déjà reconnue et que la liquidité continue de se libérer, comment faire entrer les données d'actifs réels hors chaîne de la manière la plus fluide possible dans BTC L2 ? Ce sentiment de trouver un âme sœur, c'est comme dans une jungle enveloppée de brouillard, deux personnes réglant leur fréquence sur la même chaîne qui finissent par se croiser.
Ce que nous faisons maintenant, c'est une toute nouvelle application décentralisée, dont le nom de code interne est "Omni-Anchor". La base repose sur le cadre écologique existant. Le problème central que ce produit veut résoudre est très simple : le retard dans la tarification des actifs dans l'écosystème BTC.
Du point de vue de l'architecture technique, de nombreux schémas d'oracles actuels utilisent une combinaison de consensus multi-nœuds et de preuves à divulgation nulle. Ce mécanisme peut synchroniser les fluctuations des prix des actifs du monde réel hors chaîne sur la blockchain en moins d'une seconde. Cela semble idéal, mais lors du déploiement réel, plusieurs obstacles apparaissent.
Premièrement, la redondance des données. Si chaque chaîne et chaque application doit déployer des nœuds de validation indépendants, le coût devient prohibitif. Deuxièmement, le coût en temps. Plus il y a de tours de consensus dans le processus de validation, plus le délai de confirmation est long. Troisièmement, la flexibilité. Beaucoup de schémas existants ont une architecture relativement fixe, et supporter de nouveaux types d'actifs ou sources de données nécessite des coûts de modification élevés.
Notre approche consiste à travailler sur la modularité. En résumé, il s'agit de transformer la "collecte de données"