有朋友說,諸如 #ai16z、 arc 等web3 AI Agent標的的持續陰跌是由最近爆火的MCP 協議造成的?乍一聽,整個人有點懵,WTF有關係嗎?但細想之後發現,真有一定的邏輯:已有web3 AI Agent的估值定價邏輯變了,敘事方向和產品落地路線亟需調整!以下,談談個人觀點:
1)MCP(Model Context Protocol)是一個旨在讓各類AI LLM/Agent 無縫連接到各種數據源和工具的開源標準化協議,相當於一個即插即拔USB“通用”接口,取代了過去要端到端“特定”封裝方式。
簡單而言,原本AI應用之間都有明顯的數據孤島,Agent/LLM之間要實現互通有無則需要各自開發相應的調用API接口,操作流程複雜不說,還缺乏雙向交互功能,通常都有相對有限的模型訪問和權限限制。
MCP的出現等於提供了一個統一的框架,讓AI應用可以擺脫過去的數據孤島狀態,實現“動態”訪問外部的數據與工具的可能性,可以顯著降低開發複雜性和集成效率,尤其在在自動化任務執行、實時數據查詢以及跨平臺協作等方面有明顯助推作用。
說到此,很多人立馬想到了,如果用多Agent協作創新的Manus集成此能促進多Agent協作的MCP開源框架,是不是就無敵了?
沒錯,Manus + MCP 才是web3 AI Agent此番遭受衝擊的關鍵。
2)但,匪夷所思的是,無論Manus還是MCP都是面向web2 LLM/Agent 的框架和協議標準,其解決的都是中心化服務器之間的數據交互和協作的問題,其權限和訪問控制還依賴各個服務器節點的“主動”開放,換句話來說,它只是一種開源工具屬性。
按理說,它和web3 AI Agent追求的“分佈式服務器、分佈式協作、分佈式激勵”等等中心思想完全背離,中心化的意大利炮怎麼能炸掉去中心化的碉堡呢?
究其原因在於,第一階段的web3 AI Agent太過於“web2化”了,一方面源於不少團隊都來自web2背景,對web3 Native的原生需求缺乏充分的理解,比如,ElizaOS框架最初就是一個,幫助開發者快捷部署AI Agent應用的封裝框架,恰恰就是集成了Twitter、Discord等平臺和一些OpenAI、Claude、DeepSeek等“API接口”,適當封裝了一些Memory、Charater通用框架,幫助開發者快速開發落定AI Agent應用。但較真的話,這套服務框架和web2的開源工具有何區別呢?又有什麼差異化優勢呢?
呃,難道優勢就是有一套Tokenomics激勵方式?然後用一套web2可以完全取代的框架,激勵一批更多為了發新幣而存在的AI Agent?可怕。。順著這個邏輯看,你就大概明白,為何Manus +MCP能夠對web3 AI Agent產生衝擊?
由於一眾web3 AI Agent框架和服務只解決了類同web2 AI Agent的快捷開發和應用需求,但在技術服務和標準和差異化優勢上又跟不上web2的創新速度,所以市場/資本對上一批的web3的AI Agent進行了重新估值和定價。
3)說到此,大致的問題想必找到癥結所在了,但又該如何破局呢?就一條路:專注於做web3 原生的解決方案,因為分佈式系統的運轉和激勵架構才是屬於web3絕對差異化的優勢。
以分佈式雲算力、數據、算法等服務平臺為例,表面上看似這種以閒置資源為由頭聚合起來的算力和數據,短期根本無法滿足工程化實現創新的需要,但在大量AI LLM正在拼集中化算力搞性能突破軍備競賽的時候,一個以“閒置資源、低成本”為噱頭的服務模式自然會讓web2的開發者和VC天團不屑一顧。
但等web2 AI Agent過了拼性能創新的階段,就勢必會追求垂直應用場景拓展和細分微調模型優化等方向,那個時候才會真正顯現web3 AI資源服務的優勢。
事實上,當以資源壟斷方式爬上巨頭位置上的web2 AI到一定階段,很難再退回來用農村包圍城市的思想,逐個細分場景擊破,那個時候就是過剩web2 AI 開發者+ web3 AI 資源抱團發力的時候。
事實上,web3 AI Agent除了web2的那套快捷部署+多Agent協作通信框架外+Tokenomic 發幣敘事之外,有很多web3 Native的創新方向值得去探索:
比如,配備一套分佈式共識協作框架,考慮到LLM大模型鏈下計算 +鏈上狀態存儲的特性,需要諸多適配性的組件。
1、一套去中心化的DID身份驗證系統,讓Agent能夠擁有可驗證的鏈上身份,這像執行虛擬機為智能合約生成的唯一性地址一樣,主要為了後續狀態的持續追蹤和記錄;
2、一套去中心化的Oracle預言機系統,主要負責鏈下數據的可信獲取和驗證,和以往Oracle不同的是,這套適配AI Agent的預言機可能還需要做包括數據採集層、決策共識層、執行反饋層多個Agent的組合架構,以便於Agent的鏈上所需數據和鏈下計算和決策能夠實時觸達;
3、一套去中心化的存儲DA系統,由於AI Agent運行時的知識庫狀態存在不確定性,且推理過程也較為臨時性,需要一套把LLM背後的關鍵狀態庫和推理路徑記錄下來存儲於分佈式存儲系統中,並提供成本可控的數據證明機制,以確保公鏈驗證時的數據可用性;
4、一套零知識證明ZKP隱私計算層,可以聯動包括TEE時、FHE等在內的隱私計算解決方案,實現實時的隱私計算+數據證明驗證,讓Agent可以有更廣泛的垂直數據來源(醫療、金融),繼而on top之上有更多專業定製化的服務Agent出現;
5、一套跨鏈互操作性協議,有點類似於MCP開源協議定義的框架,區別在於這套Interoperability解決方案,需要有適配Agent運行、傳遞、驗證的relay和通信調度機制,能夠完成Agent在不同鏈間的資產轉移和狀態同步問題,尤其是包含Agent上下文和Prompt、知識庫、Memory等複雜的狀態等等;
……
在我看來,真正的web3 AI Agent的攻克重點應該在於如何讓AI Agent的“複雜工作流”和區塊鏈的“信任驗證流”如何儘可能契合。至於這些增量解決方案,由已有的老敘事項目升級迭代而來,還是由新構成的AI Agent敘事賽道上的項目重新鑄就,都有可能性。
這才是web3 AI Agent應該努力Build的方向,才是符合AI +Crypto大宏觀敘事下的創新生態基本面。若不能有相關的創新開拓和差異化競爭壁壘建立,那麼,每一次web2 AI 賽道的風吹草動,都可能攪得web3 AI天翻地覆。
195059 帖子
121710 帖子
111150 帖子
76254 帖子
64012 帖子
59072 帖子
56415 帖子
52860 帖子
51354 帖子
50264 帖子
AI Agent代幣跌跌不休,是MCP太過火爆的鍋?
有朋友說,諸如 #ai16z、 arc 等web3 AI Agent標的的持續陰跌是由最近爆火的MCP 協議造成的?乍一聽,整個人有點懵,WTF有關係嗎?但細想之後發現,真有一定的邏輯:已有web3 AI Agent的估值定價邏輯變了,敘事方向和產品落地路線亟需調整!以下,談談個人觀點:
1)MCP(Model Context Protocol)是一個旨在讓各類AI LLM/Agent 無縫連接到各種數據源和工具的開源標準化協議,相當於一個即插即拔USB“通用”接口,取代了過去要端到端“特定”封裝方式。
簡單而言,原本AI應用之間都有明顯的數據孤島,Agent/LLM之間要實現互通有無則需要各自開發相應的調用API接口,操作流程複雜不說,還缺乏雙向交互功能,通常都有相對有限的模型訪問和權限限制。
MCP的出現等於提供了一個統一的框架,讓AI應用可以擺脫過去的數據孤島狀態,實現“動態”訪問外部的數據與工具的可能性,可以顯著降低開發複雜性和集成效率,尤其在在自動化任務執行、實時數據查詢以及跨平臺協作等方面有明顯助推作用。
說到此,很多人立馬想到了,如果用多Agent協作創新的Manus集成此能促進多Agent協作的MCP開源框架,是不是就無敵了?
沒錯,Manus + MCP 才是web3 AI Agent此番遭受衝擊的關鍵。
2)但,匪夷所思的是,無論Manus還是MCP都是面向web2 LLM/Agent 的框架和協議標準,其解決的都是中心化服務器之間的數據交互和協作的問題,其權限和訪問控制還依賴各個服務器節點的“主動”開放,換句話來說,它只是一種開源工具屬性。
按理說,它和web3 AI Agent追求的“分佈式服務器、分佈式協作、分佈式激勵”等等中心思想完全背離,中心化的意大利炮怎麼能炸掉去中心化的碉堡呢?
究其原因在於,第一階段的web3 AI Agent太過於“web2化”了,一方面源於不少團隊都來自web2背景,對web3 Native的原生需求缺乏充分的理解,比如,ElizaOS框架最初就是一個,幫助開發者快捷部署AI Agent應用的封裝框架,恰恰就是集成了Twitter、Discord等平臺和一些OpenAI、Claude、DeepSeek等“API接口”,適當封裝了一些Memory、Charater通用框架,幫助開發者快速開發落定AI Agent應用。但較真的話,這套服務框架和web2的開源工具有何區別呢?又有什麼差異化優勢呢?
呃,難道優勢就是有一套Tokenomics激勵方式?然後用一套web2可以完全取代的框架,激勵一批更多為了發新幣而存在的AI Agent?可怕。。順著這個邏輯看,你就大概明白,為何Manus +MCP能夠對web3 AI Agent產生衝擊?
由於一眾web3 AI Agent框架和服務只解決了類同web2 AI Agent的快捷開發和應用需求,但在技術服務和標準和差異化優勢上又跟不上web2的創新速度,所以市場/資本對上一批的web3的AI Agent進行了重新估值和定價。
3)說到此,大致的問題想必找到癥結所在了,但又該如何破局呢?就一條路:專注於做web3 原生的解決方案,因為分佈式系統的運轉和激勵架構才是屬於web3絕對差異化的優勢。
以分佈式雲算力、數據、算法等服務平臺為例,表面上看似這種以閒置資源為由頭聚合起來的算力和數據,短期根本無法滿足工程化實現創新的需要,但在大量AI LLM正在拼集中化算力搞性能突破軍備競賽的時候,一個以“閒置資源、低成本”為噱頭的服務模式自然會讓web2的開發者和VC天團不屑一顧。
但等web2 AI Agent過了拼性能創新的階段,就勢必會追求垂直應用場景拓展和細分微調模型優化等方向,那個時候才會真正顯現web3 AI資源服務的優勢。
事實上,當以資源壟斷方式爬上巨頭位置上的web2 AI到一定階段,很難再退回來用農村包圍城市的思想,逐個細分場景擊破,那個時候就是過剩web2 AI 開發者+ web3 AI 資源抱團發力的時候。
事實上,web3 AI Agent除了web2的那套快捷部署+多Agent協作通信框架外+Tokenomic 發幣敘事之外,有很多web3 Native的創新方向值得去探索:
比如,配備一套分佈式共識協作框架,考慮到LLM大模型鏈下計算 +鏈上狀態存儲的特性,需要諸多適配性的組件。
1、一套去中心化的DID身份驗證系統,讓Agent能夠擁有可驗證的鏈上身份,這像執行虛擬機為智能合約生成的唯一性地址一樣,主要為了後續狀態的持續追蹤和記錄;
2、一套去中心化的Oracle預言機系統,主要負責鏈下數據的可信獲取和驗證,和以往Oracle不同的是,這套適配AI Agent的預言機可能還需要做包括數據採集層、決策共識層、執行反饋層多個Agent的組合架構,以便於Agent的鏈上所需數據和鏈下計算和決策能夠實時觸達;
3、一套去中心化的存儲DA系統,由於AI Agent運行時的知識庫狀態存在不確定性,且推理過程也較為臨時性,需要一套把LLM背後的關鍵狀態庫和推理路徑記錄下來存儲於分佈式存儲系統中,並提供成本可控的數據證明機制,以確保公鏈驗證時的數據可用性;
4、一套零知識證明ZKP隱私計算層,可以聯動包括TEE時、FHE等在內的隱私計算解決方案,實現實時的隱私計算+數據證明驗證,讓Agent可以有更廣泛的垂直數據來源(醫療、金融),繼而on top之上有更多專業定製化的服務Agent出現;
5、一套跨鏈互操作性協議,有點類似於MCP開源協議定義的框架,區別在於這套Interoperability解決方案,需要有適配Agent運行、傳遞、驗證的relay和通信調度機制,能夠完成Agent在不同鏈間的資產轉移和狀態同步問題,尤其是包含Agent上下文和Prompt、知識庫、Memory等複雜的狀態等等;
……
在我看來,真正的web3 AI Agent的攻克重點應該在於如何讓AI Agent的“複雜工作流”和區塊鏈的“信任驗證流”如何儘可能契合。至於這些增量解決方案,由已有的老敘事項目升級迭代而來,還是由新構成的AI Agent敘事賽道上的項目重新鑄就,都有可能性。
這才是web3 AI Agent應該努力Build的方向,才是符合AI +Crypto大宏觀敘事下的創新生態基本面。若不能有相關的創新開拓和差異化競爭壁壘建立,那麼,每一次web2 AI 賽道的風吹草動,都可能攪得web3 AI天翻地覆。