Manus + MCPは、Web3 AI Agentのインパクトの鍵です。
執筆者:Haotian
友人は、#ai16z や$arcなどのWeb3 AIエージェントの継続的な衰退は、最近のMCPプロトコルの爆発的な増加が原因であると言いましたか? 一見すると、人全体が少し混乱していますが、WTFはそれと何か関係がありますか? しかし、よく考えてみると、既存のweb3 AIエージェントの評価や価格設定のロジックが変わってしまい、物語の方向性やプロダクトの着地ルートを早急に調整する必要があるという、あるロジックがあることがわかりました。 以下、私の個人的な意見を述べたいと思います。
簡単に言うと、AIアプリケーション間には明らかなデータアイランドがあり、エージェントとLLMは相互運用性を実現するために対応するコールAPIを開発する必要があり、運用プロセスの複雑さは言うまでもなく、双方向のインタラクション機能の欠如は、通常、モデルへのアクセスと権限の制限が比較的限られています。
MCPの出現は、AIアプリケーションが過去のデータサイロを取り除き、外部データやツールへの「動的」アクセスの可能性を実現するための統合フレームワークを提供し、特に自動化されたタスク実行、リアルタイムのデータクエリ、およびクロスプラットフォームコラボレーションの観点から、開発の複雑さと統合効率を大幅に削減できます。
そういえば、マルチエージェントコラボレーションとイノベーションのためのManusが、マルチエージェントコラボレーションを推進できるこのMCPオープンソースフレームワークと統合されれば、無敵ではないかと多くの人がすぐに考えました。
そうです、Manus + MCPはweb3 AI Agentのインパクトの鍵を握っています。
2)しかし、ManusとMCPの両方がweb2 LLM/Agentのフレームワークとプロトコル標準であり、中央集権的なサーバー間のデータ相互作用とコラボレーションの問題を解決し、それらの権限とアクセス制御も各サーバーノードの「アクティブ」オープン性に依存していることは信じがたいことです。
これは、web3 AI Agentが追求する「分散サーバー、分散コラボレーション、分散インセンティブ」という中心的な考え方に完全に反していることは当然のことです。
その理由は、多くのチームがweb2のバックグラウンドを持ち、web3 Nativeのネイティブ要件を完全に理解していないため、web3 AI Agentの最初のフェーズがあまりにも「web2指向」であるためです。 DeepSeekなどの「APIインターフェース」は、開発者がAIエージェントアプリケーションを迅速に開発できるように、一部のメモリおよびキャラターの一般的なフレームワークを適切にカプセル化します。 しかし、この一連のサービスフレームワークとWeb2オープンソースツールの違いは何でしょうか? 差別化要因は何ですか?
ええと、トークノミクスのインセンティブのセットがあるという利点はありますか? そして、web2が完全に置き換えることができる一連のフレームワークを使用して、新しいコインを発行する目的で存在するより多くのAIエージェントのグループにインセンティブを与えるのでしょうか? やばい。。 このロジックを見ると、Manus +MCPがweb3 AI Agentに影響を与える理由が大まかにわかりますか?
多くのWeb3 AIエージェントのフレームワークやサービスは、Web2 AIエージェントと同様に迅速な開発とアプリケーションのニーズしか解決しませんが、技術サービスや標準、差別化の優位性の面でweb2のイノベーションスピードに追いつくことができないため、市場/資本はweb3 AIエージェントの最後のバッチを再評価し、価格設定しました。
3)そういえば、一般的な問題の核心を見つける必要がありますが、状況を打破するにはどうすればよいでしょうか? 1つの方法は、分散システムの運用とインセンティブアーキテクチャがweb3の絶対的な差別化の利点であるため、Web3ネイティブのソリューションに焦点を当てることです。
分散型クラウドコンピューティングパワー、データ、アルゴリズム、その他のサービスプラットフォームを例にとると、表面的には、遊休リソースを理由に集約されたこの種のコンピューティングパワーとデータは、短期的にはエンジニアリングイノベーションのニーズを満たすことができないように見えますが、多数のAI LLMがパフォーマンスの軍拡競争を突破するために中央集権的なコンピューティングパワーを争っている場合、「アイドルリソースと低コスト」というギミックを備えたサービスモデルは、当然Web2開発者やVCグループを軽蔑します。
しかし、web2 AIエージェントがパフォーマンス革新の段階を過ぎると、垂直アプリケーションシナリオの拡大や細分化・微調整モデルの最適化を追求することになり、その時点でweb3 AIリソースサービスの利点が真に明らかになります。
実際、資源独占という形で巨人の座に上り詰めたweb2AIが一定の段階に達すると、都会を田舎で囲み、シーンを1つ1つ細分化する発想に後退することは難しく、その時は余剰のweb2 AI開発者+web3 AIリソースが連携する時代です。
実際、web2のクイックデプロイメント+マルチエージェントコラボレーティブコミュニケーションフレームワーク+トークノミック発行の物語に加えて、web3ネイティブには多くの革新的な方向性があり、探求する価値があります。
例えば、LLM大規模モデルのオフチェーンコンピューティング+オンチェーン状態ストレージの特性を考慮すると、分散コンセンサスコラボレーションフレームワークのセットを装備し、多くの適応可能なコンポーネントが必要となる。
1.分散型DID認証システムにより、エージェントは、主に後続の状態の継続的な追跡と記録のために、スマートコントラクトの実行仮想マシンによって生成された一意のアドレスのような検証可能なオンチェーンIDを持つことができます。
2.分散型オラクルオラクルシステムは、以前のオラクルとは異なるオフチェーンデータの信頼できる取得と検証を主に担当し、AIエージェントに適応したこのオラクルは、データ収集レイヤー、意思決定コンセンサスレイヤー、実行フィードバックレイヤーを含む複数のエージェントを組み合わせて行う必要がある場合もあり、エージェントとオフチェーンのコンピューティングと意思決定に必要なオンチェーンデータにリアルタイムで到達できます。
3.分散型ストレージDAシステムは、AIエージェントの実行中のナレッジベースの状態が不確実であり、推論プロセスも一時的なものであるため、LLMの背後にある主要な状態ライブラリと推論パスを記録し、分散ストレージシステムに保存し、パブリックチェーン検証のデータの可用性を確保するためのコスト制御可能なデータ証明メカニズムを提供する必要があります。
4.ゼロ知識証明ZKPプライバシーコンピューティングレイヤーのセットは、TEE時間、PHEなどのプライバシーコンピューティングソリューションとリンクして、リアルタイムのプライバシーコンピューティング+データ証明検証を実現できるため、エージェントはより広い範囲の垂直データソース(医療、金融)を持つことができ、より専門的なカスタマイズされたサービスエージェントが上部に表示されます。
5.クロスチェーン相互運用性プロトコルのセットは、MCPオープンソースプロトコルによって定義されたフレームワークにいくらか似ていますが、この一連の相互運用性ソリューションには、エージェントの操作、配信、および検証に適応し、異なるチェーン間のエージェントの資産転送と状態同期、特にエージェントのコンテキストとプロンプト、ナレッジベース、メモリなどの複雑な状態を完了できるリレーおよび通信スケジューリングメカニズムが必要であることです。
……
私の意見では、実際のWeb3 AIエージェントの焦点は、AIエージェントの「複雑なワークフロー」とブロックチェーンの「信頼性検証フロー」を可能な限り適合させる方法にあるはずです。 これらのインクリメンタルソリューションについては、既存の古いナラティブプロジェクトからアップグレードしてイテレーションしたり、新しく形成されたAIエージェントナラティブトラックのプロジェクトから作り直したりすることができます。
これは、web3 AI Agentが構築すべき方向性であり、AI + Cryptoのマクロナラティブの下でのイノベーションエコシステムの基盤に沿ったものです。 関連するイノベーションと差別化された競争の障壁が確立されなければ、web2 AIの軌道がひっくり返るたびに、web3 AIがひっくり返ってしまう可能性があります。
194k 投稿
121k 投稿
105k 投稿
77k 投稿
64k 投稿
60k 投稿
57k 投稿
53k 投稿
52k 投稿
51k 投稿
AI Agent の継続的な減少は、最近の MCP プロトコルの爆発的な増加が原因ですか?
執筆者:Haotian
友人は、#ai16z や$arcなどのWeb3 AIエージェントの継続的な衰退は、最近のMCPプロトコルの爆発的な増加が原因であると言いましたか? 一見すると、人全体が少し混乱していますが、WTFはそれと何か関係がありますか? しかし、よく考えてみると、既存のweb3 AIエージェントの評価や価格設定のロジックが変わってしまい、物語の方向性やプロダクトの着地ルートを早急に調整する必要があるという、あるロジックがあることがわかりました。 以下、私の個人的な意見を述べたいと思います。
簡単に言うと、AIアプリケーション間には明らかなデータアイランドがあり、エージェントとLLMは相互運用性を実現するために対応するコールAPIを開発する必要があり、運用プロセスの複雑さは言うまでもなく、双方向のインタラクション機能の欠如は、通常、モデルへのアクセスと権限の制限が比較的限られています。
MCPの出現は、AIアプリケーションが過去のデータサイロを取り除き、外部データやツールへの「動的」アクセスの可能性を実現するための統合フレームワークを提供し、特に自動化されたタスク実行、リアルタイムのデータクエリ、およびクロスプラットフォームコラボレーションの観点から、開発の複雑さと統合効率を大幅に削減できます。
そういえば、マルチエージェントコラボレーションとイノベーションのためのManusが、マルチエージェントコラボレーションを推進できるこのMCPオープンソースフレームワークと統合されれば、無敵ではないかと多くの人がすぐに考えました。
そうです、Manus + MCPはweb3 AI Agentのインパクトの鍵を握っています。
2)しかし、ManusとMCPの両方がweb2 LLM/Agentのフレームワークとプロトコル標準であり、中央集権的なサーバー間のデータ相互作用とコラボレーションの問題を解決し、それらの権限とアクセス制御も各サーバーノードの「アクティブ」オープン性に依存していることは信じがたいことです。
これは、web3 AI Agentが追求する「分散サーバー、分散コラボレーション、分散インセンティブ」という中心的な考え方に完全に反していることは当然のことです。
その理由は、多くのチームがweb2のバックグラウンドを持ち、web3 Nativeのネイティブ要件を完全に理解していないため、web3 AI Agentの最初のフェーズがあまりにも「web2指向」であるためです。 DeepSeekなどの「APIインターフェース」は、開発者がAIエージェントアプリケーションを迅速に開発できるように、一部のメモリおよびキャラターの一般的なフレームワークを適切にカプセル化します。 しかし、この一連のサービスフレームワークとWeb2オープンソースツールの違いは何でしょうか? 差別化要因は何ですか?
ええと、トークノミクスのインセンティブのセットがあるという利点はありますか? そして、web2が完全に置き換えることができる一連のフレームワークを使用して、新しいコインを発行する目的で存在するより多くのAIエージェントのグループにインセンティブを与えるのでしょうか? やばい。。 このロジックを見ると、Manus +MCPがweb3 AI Agentに影響を与える理由が大まかにわかりますか?
多くのWeb3 AIエージェントのフレームワークやサービスは、Web2 AIエージェントと同様に迅速な開発とアプリケーションのニーズしか解決しませんが、技術サービスや標準、差別化の優位性の面でweb2のイノベーションスピードに追いつくことができないため、市場/資本はweb3 AIエージェントの最後のバッチを再評価し、価格設定しました。
3)そういえば、一般的な問題の核心を見つける必要がありますが、状況を打破するにはどうすればよいでしょうか? 1つの方法は、分散システムの運用とインセンティブアーキテクチャがweb3の絶対的な差別化の利点であるため、Web3ネイティブのソリューションに焦点を当てることです。
分散型クラウドコンピューティングパワー、データ、アルゴリズム、その他のサービスプラットフォームを例にとると、表面的には、遊休リソースを理由に集約されたこの種のコンピューティングパワーとデータは、短期的にはエンジニアリングイノベーションのニーズを満たすことができないように見えますが、多数のAI LLMがパフォーマンスの軍拡競争を突破するために中央集権的なコンピューティングパワーを争っている場合、「アイドルリソースと低コスト」というギミックを備えたサービスモデルは、当然Web2開発者やVCグループを軽蔑します。
しかし、web2 AIエージェントがパフォーマンス革新の段階を過ぎると、垂直アプリケーションシナリオの拡大や細分化・微調整モデルの最適化を追求することになり、その時点でweb3 AIリソースサービスの利点が真に明らかになります。
実際、資源独占という形で巨人の座に上り詰めたweb2AIが一定の段階に達すると、都会を田舎で囲み、シーンを1つ1つ細分化する発想に後退することは難しく、その時は余剰のweb2 AI開発者+web3 AIリソースが連携する時代です。
実際、web2のクイックデプロイメント+マルチエージェントコラボレーティブコミュニケーションフレームワーク+トークノミック発行の物語に加えて、web3ネイティブには多くの革新的な方向性があり、探求する価値があります。
例えば、LLM大規模モデルのオフチェーンコンピューティング+オンチェーン状態ストレージの特性を考慮すると、分散コンセンサスコラボレーションフレームワークのセットを装備し、多くの適応可能なコンポーネントが必要となる。
1.分散型DID認証システムにより、エージェントは、主に後続の状態の継続的な追跡と記録のために、スマートコントラクトの実行仮想マシンによって生成された一意のアドレスのような検証可能なオンチェーンIDを持つことができます。
2.分散型オラクルオラクルシステムは、以前のオラクルとは異なるオフチェーンデータの信頼できる取得と検証を主に担当し、AIエージェントに適応したこのオラクルは、データ収集レイヤー、意思決定コンセンサスレイヤー、実行フィードバックレイヤーを含む複数のエージェントを組み合わせて行う必要がある場合もあり、エージェントとオフチェーンのコンピューティングと意思決定に必要なオンチェーンデータにリアルタイムで到達できます。
3.分散型ストレージDAシステムは、AIエージェントの実行中のナレッジベースの状態が不確実であり、推論プロセスも一時的なものであるため、LLMの背後にある主要な状態ライブラリと推論パスを記録し、分散ストレージシステムに保存し、パブリックチェーン検証のデータの可用性を確保するためのコスト制御可能なデータ証明メカニズムを提供する必要があります。
4.ゼロ知識証明ZKPプライバシーコンピューティングレイヤーのセットは、TEE時間、PHEなどのプライバシーコンピューティングソリューションとリンクして、リアルタイムのプライバシーコンピューティング+データ証明検証を実現できるため、エージェントはより広い範囲の垂直データソース(医療、金融)を持つことができ、より専門的なカスタマイズされたサービスエージェントが上部に表示されます。
5.クロスチェーン相互運用性プロトコルのセットは、MCPオープンソースプロトコルによって定義されたフレームワークにいくらか似ていますが、この一連の相互運用性ソリューションには、エージェントの操作、配信、および検証に適応し、異なるチェーン間のエージェントの資産転送と状態同期、特にエージェントのコンテキストとプロンプト、ナレッジベース、メモリなどの複雑な状態を完了できるリレーおよび通信スケジューリングメカニズムが必要であることです。
……
私の意見では、実際のWeb3 AIエージェントの焦点は、AIエージェントの「複雑なワークフロー」とブロックチェーンの「信頼性検証フロー」を可能な限り適合させる方法にあるはずです。 これらのインクリメンタルソリューションについては、既存の古いナラティブプロジェクトからアップグレードしてイテレーションしたり、新しく形成されたAIエージェントナラティブトラックのプロジェクトから作り直したりすることができます。
これは、web3 AI Agentが構築すべき方向性であり、AI + Cryptoのマクロナラティブの下でのイノベーションエコシステムの基盤に沿ったものです。 関連するイノベーションと差別化された競争の障壁が確立されなければ、web2 AIの軌道がひっくり返るたびに、web3 AIがひっくり返ってしまう可能性があります。