Oracles ont été un défi pour l'industrie de la blockchain pendant de nombreuses années — comment faire en sorte que les données externes soient à la fois fiables pour la blockchain et ne deviennent pas un goulot d'étranglement centralisé ? APRO Oracle a proposé en 2025 une nouvelle approche basée sur l'IA. D'après plusieurs scénarios concrets, cette solution touche effectivement aux points sensibles du secteur.
**Authenticité des données : multi-sources contre la manipulation**
Une seule source de données ressemble à une corde, facilement rompue. APRO adopte une agrégation multi-canaux — en intégrant les cours des échanges, les API boursières, voire les données satellitaires, puis en utilisant des modèles comme la moyenne pondérée dans le temps (TWAP) pour lisser les résultats. Mais disposer de données ne suffit pas, la valeur de l'IA se révèle : un LLM scanne en temps réel les schémas de données, détecte immédiatement toute anomalie et alerte. Par exemple, si le prix s’écarte soudainement de la plage normale, le système déclenche une alerte précoce. Les nœuds hors chaîne sont responsables de la collecte des données, tandis que la validation sur chaîne repose sur une majorité de signatures — cette architecture à double couche augmente considérablement le coût d’une attaque ponctuelle. En termes de chiffres, en 2025, APRO a validé le traitement de 89 000 requêtes sans incident majeur. C’est particulièrement efficace dans les marchés prédictifs : lorsque les utilisateurs parient sur des événements sportifs, la fonction de vérification aléatoire (VRF) peut empêcher la manipulation, garantissant l’aléa et l’équité.
**Temps et coûts : flexibilité entre push et pull**
Le dilemme entre la réactivité en temps réel et le coût en gas est toujours présent. La stratégie d’APRO consiste à utiliser à la fois le push et le pull — le push pour les scénarios d’urgence, le pull pour les besoins réguliers, laissant l’utilisateur choisir selon le contexte. Cela permet de répondre aux fluctuations soudaines du marché tout en évitant une augmentation inutile des coûts. Les coûts peuvent ainsi être maîtrisés, sans compromis sur la rapidité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Reposter
Partager
Commentaire
0/400
MoneyBurner
· Il y a 16h
8.9万 requêtes sans erreur ? Ces chiffres sont un peu farfelus, je dois les vérifier moi-même pour y croire
Voir l'originalRépondre0
rekt_but_resilient
· Il y a 16h
Oh là là, 89 000 requêtes sans erreur ? Ces chiffres sont un peu exagérés, on dirait qu'on raconte une histoire.
Voir l'originalRépondre0
CodeSmellHunter
· Il y a 16h
Agrégation multi-source avec scan AI, ça sonne bien, mais combien de projets sont réellement en ligne et utilisent cette solution ? Ou s'agit-il encore d'une proposition sur papier
Voir l'originalRépondre0
HypotheticalLiquidator
· Il y a 16h
8.9万 requêtes sans erreur ? Cette donnée mérite un point d'interrogation. Dès que la liquidité s'épuise ou que le sentiment du marché s'inverse, l'architecture à double couche ne pourra pas supporter le risque systémique.
Oracles ont été un défi pour l'industrie de la blockchain pendant de nombreuses années — comment faire en sorte que les données externes soient à la fois fiables pour la blockchain et ne deviennent pas un goulot d'étranglement centralisé ? APRO Oracle a proposé en 2025 une nouvelle approche basée sur l'IA. D'après plusieurs scénarios concrets, cette solution touche effectivement aux points sensibles du secteur.
**Authenticité des données : multi-sources contre la manipulation**
Une seule source de données ressemble à une corde, facilement rompue. APRO adopte une agrégation multi-canaux — en intégrant les cours des échanges, les API boursières, voire les données satellitaires, puis en utilisant des modèles comme la moyenne pondérée dans le temps (TWAP) pour lisser les résultats. Mais disposer de données ne suffit pas, la valeur de l'IA se révèle : un LLM scanne en temps réel les schémas de données, détecte immédiatement toute anomalie et alerte. Par exemple, si le prix s’écarte soudainement de la plage normale, le système déclenche une alerte précoce. Les nœuds hors chaîne sont responsables de la collecte des données, tandis que la validation sur chaîne repose sur une majorité de signatures — cette architecture à double couche augmente considérablement le coût d’une attaque ponctuelle. En termes de chiffres, en 2025, APRO a validé le traitement de 89 000 requêtes sans incident majeur. C’est particulièrement efficace dans les marchés prédictifs : lorsque les utilisateurs parient sur des événements sportifs, la fonction de vérification aléatoire (VRF) peut empêcher la manipulation, garantissant l’aléa et l’équité.
**Temps et coûts : flexibilité entre push et pull**
Le dilemme entre la réactivité en temps réel et le coût en gas est toujours présent. La stratégie d’APRO consiste à utiliser à la fois le push et le pull — le push pour les scénarios d’urgence, le pull pour les besoins réguliers, laissant l’utilisateur choisir selon le contexte. Cela permet de répondre aux fluctuations soudaines du marché tout en évitant une augmentation inutile des coûts. Les coûts peuvent ainsi être maîtrisés, sans compromis sur la rapidité.