Beaucoup pensent qu'une fois l'audit passé, ils peuvent dormir sur leurs deux oreilles, mais les risques réels liés à la finance en chaîne se cachent souvent dans la ligne de données. La capacité des prix à continuer à fournir, la détection rapide des fluctuations anormales, la vitesse de mise à jour qui doit suivre le rythme du marché — ces éléments apparemment insignifiants, en cas de problème, peuvent entraîner des erreurs de liquidation et l'échec de la gestion des risques.
Pour le dire plus simplement : si la source de données présente un biais, tout le bruit du système sera directement transféré aux utilisateurs ordinaires. Ce n'est pas un événement à faible probabilité.
Alors, comment sortir de cette impasse ? La solution consiste en réalité à faire de l'entrée de données une norme d'ingénierie fiable. Des sources d'informations plus dignes de confiance, un mécanisme de mise à jour plus stable et continu, un processus de gestion des anomalies plus complet — afin que le protocole puisse maintenir une exécution stable même en période de forte volatilité du marché.
Les avantages de cette approche sont évidents : moins de liquidations inutiles pour les utilisateurs, ce qui leur donne une tranquillité d'esprit ; pour les développeurs, cela réduit la pression de sécurité et leur donne plus d'espace pour faire évoluer le produit lui-même.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
3
Reposter
Partager
Commentaire
0/400
PrivacyMaximalist
· Il y a 10h
Une source de données qui flanche, les utilisateurs doivent subir la liquidation... C’est pour ça que je ne crois pas à ces projets qui se vantent d’avoir passé un audit. Les détails font la différence.
---
Encore une fois, c’est toujours la logique « une fois l’audit passé, c’est bon ». En cas de gros problème, c’est toujours la partie des données qui pose problème.
---
Je veux juste savoir combien de protocoles ont vraiment réussi à assurer la stabilité des données ? La plupart s’appuient encore sur la chance.
---
Ne parlons même pas de la faible probabilité de liquidation incorrecte, j’ai déjà plusieurs personnes autour de moi qui ont subi des pertes.
---
Il est facile de dire que la norme d’ingénierie des données est importante, mais en pratique, combien d’acteurs dans l’écosystème y consacrent vraiment des efforts ?
---
Compris, l’audit n’est qu’une validation, le vrai enjeu c’est la conception de l’entrée des données. C’est ça qui constitue la véritable barrière.
---
Un système peut-il rester stable lors de fluctuations de marché violentes ? Ça a l’air bien, mais comment le vérifier ?
---
Donc, en fin de compte, il faut choisir des projets qui prennent la gestion des flux de données comme une question de vie ou de mort. Tout le reste, c’est du blabla.
Voir l'originalRépondre0
LiquidityHunter
· Il y a 10h
Une source de données qui flanche, on doit se faire liquidier, cela aurait dû être pris en compte depuis longtemps. La validation par audit ≠ stabilité du système, il faut bien comprendre ce principe.
---
Ah non, ce qu'il faut vraiment vérifier, c'est si l'oracle est fiable, une latence d'une seconde peut tout faire échouer.
---
Plutôt que d'augmenter le nombre d'audits, il vaut mieux renforcer la pipeline de données, pour éviter d'être constamment sur le qui-vive.
---
Donc, ne vous faites pas avoir par le rapport d'audit, ce sont les données en temps réel sur la chaîne qui sont vitales.
---
C'est pour ça que je dis toujours que le risque d'un protocole ne réside souvent pas dans le code, mais dans ceux qui alimentent en données.
---
Transférer le bruit aux utilisateurs ? C'est exactement la situation actuelle, il faut vite améliorer l'architecture de l'oracle.
---
Les standards d'ingénierie fiables semblent faciles à entendre, mais en pratique, combien de coûts cela implique-t-il ? Qui l'a vraiment fait ?
---
Quand le marché fluctue, les données deviennent chaotiques, puis beaucoup se font liquider, et cela tourne en boucle. Il faut régler ce problème en profondeur.
---
Pour être honnête, peu de protocoles mettent vraiment la fiabilité des données en premier, la plupart comptent encore sur un seul oracle.
---
L'échec de la gestion des risques a touché le point sensible, une liquidation mal calibrée est plus difficile à repérer qu'un bug.
Voir l'originalRépondre0
ShitcoinConnoisseur
· Il y a 10h
L'audit est-il passé ? Ce n'est que la ligne de qualification, le vrai défi réside dans la mécanique de feed de prix. Un simple retard de données peut vous faire liquider en un clin d'œil. J'en ai vu trop de cas.
Lorsque la source de données plante, les utilisateurs en paient le prix. Cette logique aurait dû être modifiée depuis longtemps.
Le frère a raison, les normes d'ingénierie doivent être renforcées, sinon tous les audits du monde seront inutiles.
Avoir une liquidation unique qui entraîne des pertes, vous avez déjà vécu ça ? C'est vraiment le désespoir total. La stabilité des données est effectivement une question de vie ou de mort.
La mise à niveau du mécanisme de feed de prix est urgente, sinon cet écosystème sera tôt ou tard détruit par le bruit des données.
Beaucoup pensent qu'une fois l'audit passé, ils peuvent dormir sur leurs deux oreilles, mais les risques réels liés à la finance en chaîne se cachent souvent dans la ligne de données. La capacité des prix à continuer à fournir, la détection rapide des fluctuations anormales, la vitesse de mise à jour qui doit suivre le rythme du marché — ces éléments apparemment insignifiants, en cas de problème, peuvent entraîner des erreurs de liquidation et l'échec de la gestion des risques.
Pour le dire plus simplement : si la source de données présente un biais, tout le bruit du système sera directement transféré aux utilisateurs ordinaires. Ce n'est pas un événement à faible probabilité.
Alors, comment sortir de cette impasse ? La solution consiste en réalité à faire de l'entrée de données une norme d'ingénierie fiable. Des sources d'informations plus dignes de confiance, un mécanisme de mise à jour plus stable et continu, un processus de gestion des anomalies plus complet — afin que le protocole puisse maintenir une exécution stable même en période de forte volatilité du marché.
Les avantages de cette approche sont évidents : moins de liquidations inutiles pour les utilisateurs, ce qui leur donne une tranquillité d'esprit ; pour les développeurs, cela réduit la pression de sécurité et leur donne plus d'espace pour faire évoluer le produit lui-même.