Certains fren disent que la tendance à la baisse continue des actifs cibles tels que #ai16z, arc, etc. dans le domaine de l'Agent AI web3 est causée par le récent engouement pour le protocole MCP? À première vue, cela semble un peu déconcertant, mais après réflexion, il y a une certaine logique : la logique d'évaluation de la valorisation des Agents AI web3 existants a changé, et il est urgent de réajuster la direction narrative et la feuille de route du produit ! Voici quelques réflexions personnelles :
1)MCP(Model Context Protocol)est un protocole de normalisation open source visant à connecter de manière transparente divers types d'IA LLM/Agent à diverses sources de données et outils, agissant comme une interface USB "universelle" plug-and-play, remplaçant les méthodes d'encapsulation "spécifiques" d'extrémité à extrémité utilisées par le passé.
En termes simples, à l'origine, il y avait des îlots de données évidents entre les applications AI, et il était nécessaire que les agents/LLM développent respectivement des interfaces d'API d'appel correspondantes pour assurer l'interconnexion. Le processus opérationnel est non seulement complexe, mais il manque également une fonction d'interaction bidirectionnelle, avec généralement un accès limité aux modèles et des restrictions de permission.
L'apparition de MCP équivaut à fournir un cadre unifié permettant aux applications d'IA de sortir de l'isolement des données passées, réalisant ainsi la possibilité d'un accès "dynamique" aux données et aux outils externes, ce qui peut considérablement réduire la complexité du développement et l'efficacité de l'intégration, en particulier dans l'exécution des tâches automatisées, les requêtes de données en temps réel et la collaboration interplateforme.
En parlant de cela, beaucoup de gens pensent immédiatement que si le cadre MCP open source intégrant la collaboration multi-agent de Manus pour promouvoir la collaboration multi-agent est-il invincible?
Exact, Manus + MCP est la clé de l'impact sur l'Agent AI web3 cette fois-ci.
Cependant, ce qui est surprenant, c'est que tant Manus que MCP sont des cadres et des normes orientés vers web2 LLM/Agent, résolvant les problèmes d'interaction et de collaboration de données entre serveurs centralisés, avec des autorisations et des contrôles d'accès dépendant toujours de l'ouverture "active" de chaque nœud de serveur, en d'autres termes, il s'agit simplement d'une propriété d'outil open source.
En théorie, comment un canon italien centralisé peut-il détruire une forteresse décentralisée, alors qu'il va à l'encontre de l'idée centrale de la 'serveur distribué, collaboration distribuée, incitations distribuées', poursuivie par le web3 AI Agent ?
La raison en est que, la première phase de l'Agent web3 AI est trop "web2ifiée", d'une part en raison du fait que de nombreuses équipes proviennent de l'arrière-plan web2 et manquent de compréhension suffisante des besoins natifs de web3, par exemple, le cadre ElizaOS était à l'origine un cadre d'encapsulation pour aider les développeurs à déployer rapidement des applications d'Agent AI, intégrant Twitter, Discord et d'autres plateformes ainsi que certains "API interfaces" tels que OpenAI, Claude, DeepSeek, encapsulant de manière appropriée certains cadres généraux de mémoire et de caractères, pour aider les développeurs à développer rapidement des applications d'Agent AI. Mais si l'on regarde de plus près, en quoi ce cadre de services est-il différent des outils open source de web2? Quels avantages de différenciation apporte-t-il?
Euh, est-ce que l'avantage est simplement un moyen incitatif basé sur la Tokenomics ? Puis utiliser un cadre qui pourrait être entièrement remplacé par une solution web2, pour inciter un groupe encore plus important d'Agents IA existant uniquement pour le lancement de nouvelles cryptomonnaies ? Effrayant... En suivant cette logique, vous comprendrez probablement pourquoi Manus + MCP peuvent avoir un impact sur les Agents IA de web3.
En raison du fait que de nombreux cadres et services d'agents AI web3 n'ont résolu que le besoin de développement rapide et d'application similaire à ceux des agents AI web2, mais qu'ils ne peuvent pas suivre le rythme de l'innovation de web2 en termes de services techniques, de normes et d'avantages différenciés, le marché/le capital a réévalué et fixé un nouveau prix pour la précédente vague d'agents AI web3.
3)En parlant de cela, nous avons probablement identifié l'essence du problème, mais comment le résoudre ? Il n'y a qu'une seule voie : se concentrer sur la création de solutions natives à web3, car le fonctionnement des systèmes distribués et l'architecture d'incitation constituent l'avantage absolu de différenciation de web3.
En prenant comme exemple la plateforme de services distribués tels que la puissance de calcul en nuage, les données, les algorithmes, etc., en apparence, ce genre de puissance de calcul et de données regroupées pour des ressources inutilisées ne peut tout simplement pas répondre aux besoins d'innovation à long terme en ingénierie. Cependant, alors que de plus en plus d'IA LLM rassemble la puissance de calcul centralisée pour des performances de pointe dans une course aux armements, un modèle de service basé sur des 'ressources inutilisées, à faible coût' ne manquera pas de susciter le mépris des développeurs web2 et des groupes de capital-risque.
Cependant, une fois que l'Agent AI web2 aura dépassé la phase d'innovation de performance, il cherchera inévitablement à étendre les scénarios d'application verticale et à optimiser les modèles de réglage fin, c'est à ce moment-là que les avantages du service en ressources AI web3 se manifesteront vraiment.
En fait, lorsqu'un géant du web2 AI grimpe au sommet de la position en monopolisant les ressources, il est difficile de revenir à l'idée de l'encerclement de la ville par la campagne et de briser scène par scène une fois qu'il a atteint un certain stade, c'est à ce moment-là que les développeurs web2 AI en excès + les ressources regroupées de web3 AI entrent en jeu.
En fait, en plus du cadre de déploiement rapide et de communication multi-agent de web2, en plus de la narration de l'émission de jetons, il existe de nombreuses directions innovantes propres à web3 qui valent la peine d'être explorées :
Par exemple, équipé d'un cadre de collaboration de consensus distribué, compte tenu des caractéristiques de calcul sous chaîne LLM + stockage d'état sur chaîne, de nombreux composants d'adaptabilité sont nécessaires.
1、Un système de vérification d'identité DID décentralisé permet à l'Agent de posséder une identité vérifiable sur la chaîne, similaire à l'adresse d'unicité générée pour les contrats intelligents par une machine virtuelle, principalement pour assurer le suivi et l'enregistrement continus de l'état ultérieur.
Un système d'Oracle décentralisé, principalement responsable de l'obtention et de la vérification de données hors chaîne. À la différence des oracles traditionnels, ce système d'oracle adapté à l'IA peut également nécessiter une architecture combinée de plusieurs agents, comprenant une couche de collecte de données, une couche de consensus de décision et une couche de rétroaction d'exécution, afin que les données nécessaires à l'agent sur la chaîne et les calculs et décisions hors chaîne puissent être atteints en temps réel.
Un système de stockage DA décentralisé, en raison de l'incertitude de l'état de la base de connaissances lors de l'exécution de l'Agent IA et de la nature temporaire du processus de raisonnement, nécessite un système pour enregistrer la bibliothèque d'états clés derrière LLM et les chemins de raisonnement dans un système de stockage distribué, et fournir un mécanisme de preuve de données à coût maîtrisé, afin de garantir la disponibilité des données lors de la validation de la chaîne publique.
4, un ensemble de preuves de confidentialité ZKP, une couche de calcul de confidentialité, peut être associé à des solutions de calcul de confidentialité telles que TEE, FHE, etc., pour réaliser un calcul de confidentialité en temps réel + vérification de preuves de données, permettant à l'Agent d'avoir accès à un plus large éventail de sources de données verticales (médicales, financières), ce qui entraîne la création d'un plus grand nombre de services d'Agent professionnels et personnalisés.
5、Un protocole d'interopérabilité entre chaînes, un peu similaire au cadre défini par le protocole open source MCP, la différence réside dans ce solution d'interopérabilité, nécessitant un relais et un mécanisme de communication pour exécuter, transmettre et valider l'Agent d'adaptation, capable de résoudre les problèmes de transfert d'actifs et de synchronisation d'états de l'Agent entre différentes chaînes, en particulier en incluant des états complexes tels que le contexte de l'Agent, les invites, la base de connaissances, la mémoire, etc.
……
À mon avis, la clé de la réussite véritable de l'Agent AI web3 devrait résider dans la manière de faire correspondre au mieux le "flux de travail complexe" de l'Agent AI et le "flux de vérification de confiance" de la blockchain. Quant à ces solutions incrémentielles, elles peuvent être issues de mises à niveau itératives de projets narratifs anciens existants ou être recréées par de nouveaux projets sur la voie narrative de l'Agent AI.
C'est la direction vers laquelle l'agent web3 AI devrait travailler dur, c'est la base de l'écosystème d'innovation conforme au grand récit macro AI + Crypto. Sans des innovations pertinentes et des barrières concurrentielles différenciées, chaque mouvement dans la course AI web2 pourrait bouleverser complètement l'AI web3.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
L'agent AI Jeton ne cesse de chuter, est-ce dû à une MCP trop explosive ?
Certains fren disent que la tendance à la baisse continue des actifs cibles tels que #ai16z, arc, etc. dans le domaine de l'Agent AI web3 est causée par le récent engouement pour le protocole MCP? À première vue, cela semble un peu déconcertant, mais après réflexion, il y a une certaine logique : la logique d'évaluation de la valorisation des Agents AI web3 existants a changé, et il est urgent de réajuster la direction narrative et la feuille de route du produit ! Voici quelques réflexions personnelles :
1)MCP(Model Context Protocol)est un protocole de normalisation open source visant à connecter de manière transparente divers types d'IA LLM/Agent à diverses sources de données et outils, agissant comme une interface USB "universelle" plug-and-play, remplaçant les méthodes d'encapsulation "spécifiques" d'extrémité à extrémité utilisées par le passé.
En termes simples, à l'origine, il y avait des îlots de données évidents entre les applications AI, et il était nécessaire que les agents/LLM développent respectivement des interfaces d'API d'appel correspondantes pour assurer l'interconnexion. Le processus opérationnel est non seulement complexe, mais il manque également une fonction d'interaction bidirectionnelle, avec généralement un accès limité aux modèles et des restrictions de permission.
L'apparition de MCP équivaut à fournir un cadre unifié permettant aux applications d'IA de sortir de l'isolement des données passées, réalisant ainsi la possibilité d'un accès "dynamique" aux données et aux outils externes, ce qui peut considérablement réduire la complexité du développement et l'efficacité de l'intégration, en particulier dans l'exécution des tâches automatisées, les requêtes de données en temps réel et la collaboration interplateforme.
En parlant de cela, beaucoup de gens pensent immédiatement que si le cadre MCP open source intégrant la collaboration multi-agent de Manus pour promouvoir la collaboration multi-agent est-il invincible?
Exact, Manus + MCP est la clé de l'impact sur l'Agent AI web3 cette fois-ci.
En théorie, comment un canon italien centralisé peut-il détruire une forteresse décentralisée, alors qu'il va à l'encontre de l'idée centrale de la 'serveur distribué, collaboration distribuée, incitations distribuées', poursuivie par le web3 AI Agent ?
La raison en est que, la première phase de l'Agent web3 AI est trop "web2ifiée", d'une part en raison du fait que de nombreuses équipes proviennent de l'arrière-plan web2 et manquent de compréhension suffisante des besoins natifs de web3, par exemple, le cadre ElizaOS était à l'origine un cadre d'encapsulation pour aider les développeurs à déployer rapidement des applications d'Agent AI, intégrant Twitter, Discord et d'autres plateformes ainsi que certains "API interfaces" tels que OpenAI, Claude, DeepSeek, encapsulant de manière appropriée certains cadres généraux de mémoire et de caractères, pour aider les développeurs à développer rapidement des applications d'Agent AI. Mais si l'on regarde de plus près, en quoi ce cadre de services est-il différent des outils open source de web2? Quels avantages de différenciation apporte-t-il?
Euh, est-ce que l'avantage est simplement un moyen incitatif basé sur la Tokenomics ? Puis utiliser un cadre qui pourrait être entièrement remplacé par une solution web2, pour inciter un groupe encore plus important d'Agents IA existant uniquement pour le lancement de nouvelles cryptomonnaies ? Effrayant... En suivant cette logique, vous comprendrez probablement pourquoi Manus + MCP peuvent avoir un impact sur les Agents IA de web3.
En raison du fait que de nombreux cadres et services d'agents AI web3 n'ont résolu que le besoin de développement rapide et d'application similaire à ceux des agents AI web2, mais qu'ils ne peuvent pas suivre le rythme de l'innovation de web2 en termes de services techniques, de normes et d'avantages différenciés, le marché/le capital a réévalué et fixé un nouveau prix pour la précédente vague d'agents AI web3.
3)En parlant de cela, nous avons probablement identifié l'essence du problème, mais comment le résoudre ? Il n'y a qu'une seule voie : se concentrer sur la création de solutions natives à web3, car le fonctionnement des systèmes distribués et l'architecture d'incitation constituent l'avantage absolu de différenciation de web3.
En prenant comme exemple la plateforme de services distribués tels que la puissance de calcul en nuage, les données, les algorithmes, etc., en apparence, ce genre de puissance de calcul et de données regroupées pour des ressources inutilisées ne peut tout simplement pas répondre aux besoins d'innovation à long terme en ingénierie. Cependant, alors que de plus en plus d'IA LLM rassemble la puissance de calcul centralisée pour des performances de pointe dans une course aux armements, un modèle de service basé sur des 'ressources inutilisées, à faible coût' ne manquera pas de susciter le mépris des développeurs web2 et des groupes de capital-risque.
Cependant, une fois que l'Agent AI web2 aura dépassé la phase d'innovation de performance, il cherchera inévitablement à étendre les scénarios d'application verticale et à optimiser les modèles de réglage fin, c'est à ce moment-là que les avantages du service en ressources AI web3 se manifesteront vraiment.
En fait, lorsqu'un géant du web2 AI grimpe au sommet de la position en monopolisant les ressources, il est difficile de revenir à l'idée de l'encerclement de la ville par la campagne et de briser scène par scène une fois qu'il a atteint un certain stade, c'est à ce moment-là que les développeurs web2 AI en excès + les ressources regroupées de web3 AI entrent en jeu.
En fait, en plus du cadre de déploiement rapide et de communication multi-agent de web2, en plus de la narration de l'émission de jetons, il existe de nombreuses directions innovantes propres à web3 qui valent la peine d'être explorées :
Par exemple, équipé d'un cadre de collaboration de consensus distribué, compte tenu des caractéristiques de calcul sous chaîne LLM + stockage d'état sur chaîne, de nombreux composants d'adaptabilité sont nécessaires.
1、Un système de vérification d'identité DID décentralisé permet à l'Agent de posséder une identité vérifiable sur la chaîne, similaire à l'adresse d'unicité générée pour les contrats intelligents par une machine virtuelle, principalement pour assurer le suivi et l'enregistrement continus de l'état ultérieur.
Un système d'Oracle décentralisé, principalement responsable de l'obtention et de la vérification de données hors chaîne. À la différence des oracles traditionnels, ce système d'oracle adapté à l'IA peut également nécessiter une architecture combinée de plusieurs agents, comprenant une couche de collecte de données, une couche de consensus de décision et une couche de rétroaction d'exécution, afin que les données nécessaires à l'agent sur la chaîne et les calculs et décisions hors chaîne puissent être atteints en temps réel.
Un système de stockage DA décentralisé, en raison de l'incertitude de l'état de la base de connaissances lors de l'exécution de l'Agent IA et de la nature temporaire du processus de raisonnement, nécessite un système pour enregistrer la bibliothèque d'états clés derrière LLM et les chemins de raisonnement dans un système de stockage distribué, et fournir un mécanisme de preuve de données à coût maîtrisé, afin de garantir la disponibilité des données lors de la validation de la chaîne publique.
4, un ensemble de preuves de confidentialité ZKP, une couche de calcul de confidentialité, peut être associé à des solutions de calcul de confidentialité telles que TEE, FHE, etc., pour réaliser un calcul de confidentialité en temps réel + vérification de preuves de données, permettant à l'Agent d'avoir accès à un plus large éventail de sources de données verticales (médicales, financières), ce qui entraîne la création d'un plus grand nombre de services d'Agent professionnels et personnalisés.
5、Un protocole d'interopérabilité entre chaînes, un peu similaire au cadre défini par le protocole open source MCP, la différence réside dans ce solution d'interopérabilité, nécessitant un relais et un mécanisme de communication pour exécuter, transmettre et valider l'Agent d'adaptation, capable de résoudre les problèmes de transfert d'actifs et de synchronisation d'états de l'Agent entre différentes chaînes, en particulier en incluant des états complexes tels que le contexte de l'Agent, les invites, la base de connaissances, la mémoire, etc.
……
À mon avis, la clé de la réussite véritable de l'Agent AI web3 devrait résider dans la manière de faire correspondre au mieux le "flux de travail complexe" de l'Agent AI et le "flux de vérification de confiance" de la blockchain. Quant à ces solutions incrémentielles, elles peuvent être issues de mises à niveau itératives de projets narratifs anciens existants ou être recréées par de nouveaux projets sur la voie narrative de l'Agent AI.
C'est la direction vers laquelle l'agent web3 AI devrait travailler dur, c'est la base de l'écosystème d'innovation conforme au grand récit macro AI + Crypto. Sans des innovations pertinentes et des barrières concurrentielles différenciées, chaque mouvement dans la course AI web2 pourrait bouleverser complètement l'AI web3.