Algunos fren dicen que la tendencia a la baja en activos como #ai16z, arc y otros objetivos de Agentes de IA web3 se debe al reciente éxito del protocolo MCP. A primera vista, uno se siente un poco confundido, ¿qué tiene que ver todo esto? Pero después de pensarlo detenidamente, realmente tiene cierta lógica: la lógica de valoración de los Agentes de IA web3 existentes ha cambiado, ¡y la dirección narrativa y la hoja de ruta del producto necesitan ajustes urgentes! A continuación, compartiré mi opinión personal:
1)MCP(Model Context Protocol)es un protocolo de estandarización de código abierto diseñado para permitir que todo tipo de AI LLM/Agent se conecten sin problemas a diversas fuentes de datos y herramientas, similar a una interfaz USB "universal" plug-and-play, reemplazando los métodos de empaquetamiento "específicos" de extremo a extremo del pasado.
En pocas palabras, originalmente, había islas de datos evidentes entre las aplicaciones de IA. Para lograr la interoperabilidad entre Agent/LLM, se requería el desarrollo respectivo de interfaces de API de llamada. Además de ser un proceso operativo complejo, carecía de funcionalidad de interacción bidireccional y generalmente tenía un acceso limitado al modelo y restricciones de permisos.
La aparición de MCP equivale a proporcionar un marco unificado que permite a las aplicaciones de inteligencia artificial escapar del estado de isla de datos pasado, logrando la posibilidad de acceder de manera "dinámica" a datos y herramientas externas, lo que puede reducir significativamente la complejidad del desarrollo y la eficiencia de la integración, especialmente en la ejecución de tareas de automatización, consultas de datos en tiempo real y colaboración entre plataformas.
Al mencionar esto, muchas personas inmediatamente piensan, si se integra el innovador Marco de Código Abierto MCP de Manus que promueve la colaboración de múltiples Agentes con la integración de muchos Agentes, ¿será invencible?
Exacto, Manus + MCP es la clave del agente de IA web3 que ha sido impactado esta vez.
2)Sin embargo, lo sorprendente es que tanto Manus como MCP son marcos y estándares orientados a web2 LLM/Agent, que resuelven problemas de interacción y colaboración de datos entre servidores centralizados, y cuyo control de permisos y acceso aún depende de la apertura "activa" de cada nodo del servidor, en otras palabras, es simplemente una herramienta de código abierto.
En teoría, ¿cómo puede un cañón italiano centralizado explotar la fortaleza descentralizada, y de hecho, alejarse por completo del pensamiento central de 'servidores distribuidos, colaboración distribuida, incentivos distribuidos', etc., que busca el Agente de IA web3?
La razón radica en que, en la primera etapa, el Agente web3 AI es demasiado 'web2ificado', por un lado, debido a que muchos equipos provienen de un entorno web2 y carecen de una comprensión suficiente de las necesidades nativas de web3. Por ejemplo, el marco ElizaOS inicialmente era un marco de encapsulación que ayudaba a los desarrolladores a implementar rápidamente aplicaciones de Agente AI, integrando plataformas como Twitter, Discord, y algunos interfaces de API como OpenAI, Claude, DeepSeek, encapsulando adecuadamente algunos marcos generales de Memoria y Carácter, para ayudar a los desarrolladores a crear rápidamente aplicaciones de Agente AI establecidas. Pero si se analiza en detalle, ¿cuál es la diferencia entre este marco de servicios y las herramientas de código abierto de web2? ¿Y cuáles son las ventajas diferenciales?
¿La ventaja es simplemente tener un conjunto de incentivos de Tokenomics? ¿Y luego usar un marco que se puede reemplazar completamente con web2 para incentivar a un grupo aún mayor de Agentes de IA que existen solo para lanzar nuevas monedas? Aterrador... Siguiendo esta lógica, probablemente entiendas por qué Manus + MCP pueden impactar a los Agentes de IA de web3.
Debido a que una serie de marcos de agentes de IA web3 y servicios solo resuelven las necesidades de desarrollo rápido y aplicación similar a los agentes de IA web2, pero no pueden mantenerse al día con la velocidad de innovación de web2 en términos de servicios tecnológicos, estándares y ventajas diferenciadoras, por lo que el mercado/capital ha vuelto a evaluar y fijar precios a la primera generación de agentes de IA web3.
Al hablar de esto, seguramente se ha encontrado el meollo del asunto, ¿pero cómo se puede romper la situación? Solo hay un camino: enfocarse en ofrecer soluciones nativas de web3, ya que el funcionamiento de los sistemas distribuidos y la arquitectura de incentivos son la ventaja absolutamente diferenciadora de web3.
Tomando como ejemplo una plataforma de servicios que utiliza la potencia de cálculo distribuido en la nube, datos, algoritmos, etc., aparentemente, esta acumulación de potencia de cálculo y datos basada en recursos inactivos no puede satisfacer en absoluto las necesidades de implementación ingenieril a corto plazo. Sin embargo, en un momento en el que una gran cantidad de LLM de IA están reuniendo la potencia de cálculo centralizada para lograr avances en el rendimiento en una carrera armamentista, un modelo de servicio que se promociona como "recursos inactivos y bajo costo" naturalmente hará que los desarrolladores de web2 y los grupos de VC lo desprecien.
Pero una vez que el web2 AI Agent haya pasado la etapa de innovación en rendimiento puro, inevitablemente buscará expandir los escenarios de aplicación verticales y optimizar modelos mediante ajustes finos, solo entonces se manifestarán verdaderamente las ventajas del servicio de recursos de AI web3.
De hecho, cuando el web2 AI asciende a una posición de gigante de manera monopolística en cierta etapa, es difícil retroceder y utilizar la idea de rodear la ciudad con aldeas, desglosar escenarios uno por uno. Es en ese momento cuando hay un exceso de desarrolladores de web2 AI y recursos de web3 AI trabajando juntos.
De hecho, además del marco de implementación rápida y la comunicación colaborativa de múltiples agentes de web2, así como la narrativa de emisión de tokens, hay muchas direcciones innovadoras nativas de web3 que valen la pena explorar:
Por ejemplo, equipar un marco de colaboración de consenso distribuido, considerando las características de cálculo debajo de la cadena del gran modelo LLM + almacenamiento de estado en la cadena, se requieren muchos componentes de adaptabilidad.
1、Un sistema de verificación de identidad DID descentralizado que permite a los Agentes tener una identidad en cadena verificable, similar a las direcciones únicas generadas por la ejecución de la máquina virtual para contratos inteligentes, principalmente para el seguimiento y registro continuo de estados posteriores;
2、Un sistema descentralizado de oráculo, principalmente responsable de la obtención y verificación de datos fuera de la cadena, a diferencia de los oráculos convencionales, este sistema de oráculo compatible con el Agente de IA puede requerir una arquitectura combinada de múltiples agentes que incluye una capa de recopilación de datos, una capa de consenso de decisiones y una capa de retroalimentación de ejecución, para que los datos necesarios en la cadena del Agente y los cálculos y decisiones fuera de la cadena puedan llegar en tiempo real.
3、Un sistema de almacenamiento DA descentralizado, debido a la incertidumbre en el estado de la base de conocimiento durante la ejecución del Agente de IA, y el proceso de razonamiento es temporal, se necesita un conjunto de registros de los estados clave detrás de LLM y los caminos de razonamiento para almacenar en un sistema de almacenamiento distribuido, y proporcionar un mecanismo de prueba de datos de costo controlable, para garantizar la disponibilidad de datos durante la verificación de la cadena pública.
4、Una capa de cálculo de privacidad de prueba cero ZKP, que puede estar vinculada a soluciones de cálculo de privacidad, incluyendo TEE, FHE, etc., para lograr cálculos de privacidad en tiempo real + verificación de pruebas de datos, permitiendo que el Agente pueda tener fuentes de datos verticales más amplias (médicas, financieras), lo que a su vez dará lugar a la aparición de más Agentes de servicios profesionales personalizados en la parte superior.
5、Un protocolo de interoperabilidad cruzada, algo similar al marco de definición de protocolo de código abierto MCP, la diferencia radica en que esta solución de interoperabilidad requiere un relay y un mecanismo de programación de comunicaciones adaptativos para que corran, transmitan y verifiquen los agentes, pudiendo así resolver problemas de transferencia de activos y sincronización de estados entre diferentes cadenas, especialmente con la complejidad de contextos y elementos como Prompt, biblioteca de conocimientos, memoria, etc., incluidos en los agentes.
……
En mi opinión, el enfoque clave para conquistar a un verdadero Agente de IA web3 debería centrarse en cómo hacer que el 'flujo de trabajo complejo' del Agente de IA y el 'flujo de verificación de confianza' de la cadena de bloques encajen lo mejor posible. En cuanto a estas soluciones incrementales, existe la posibilidad de que provengan de proyectos narrativos antiguos existentes que se actualizan e iteran, o que sean reforjados por proyectos en la nueva pista narrativa de Agentes de IA.
Este es el camino en el que el Agente de AI web3 debería esforzarse por construir, que es consistente con los fundamentos de la innovación ecológica de AI + Crypto en el macro-relato. Si no hay una exploración innovadora relevante y la construcción de barreras de competencia diferenciadoras, entonces cada movimiento en la pista de AI web2 podría sacudir completamente el mundo de AI web3.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
AI AgentToken sigue cayendo sin parar, ¿es MCP la olla demasiado caliente?
Algunos fren dicen que la tendencia a la baja en activos como #ai16z, arc y otros objetivos de Agentes de IA web3 se debe al reciente éxito del protocolo MCP. A primera vista, uno se siente un poco confundido, ¿qué tiene que ver todo esto? Pero después de pensarlo detenidamente, realmente tiene cierta lógica: la lógica de valoración de los Agentes de IA web3 existentes ha cambiado, ¡y la dirección narrativa y la hoja de ruta del producto necesitan ajustes urgentes! A continuación, compartiré mi opinión personal:
1)MCP(Model Context Protocol)es un protocolo de estandarización de código abierto diseñado para permitir que todo tipo de AI LLM/Agent se conecten sin problemas a diversas fuentes de datos y herramientas, similar a una interfaz USB "universal" plug-and-play, reemplazando los métodos de empaquetamiento "específicos" de extremo a extremo del pasado.
En pocas palabras, originalmente, había islas de datos evidentes entre las aplicaciones de IA. Para lograr la interoperabilidad entre Agent/LLM, se requería el desarrollo respectivo de interfaces de API de llamada. Además de ser un proceso operativo complejo, carecía de funcionalidad de interacción bidireccional y generalmente tenía un acceso limitado al modelo y restricciones de permisos.
La aparición de MCP equivale a proporcionar un marco unificado que permite a las aplicaciones de inteligencia artificial escapar del estado de isla de datos pasado, logrando la posibilidad de acceder de manera "dinámica" a datos y herramientas externas, lo que puede reducir significativamente la complejidad del desarrollo y la eficiencia de la integración, especialmente en la ejecución de tareas de automatización, consultas de datos en tiempo real y colaboración entre plataformas.
Al mencionar esto, muchas personas inmediatamente piensan, si se integra el innovador Marco de Código Abierto MCP de Manus que promueve la colaboración de múltiples Agentes con la integración de muchos Agentes, ¿será invencible?
Exacto, Manus + MCP es la clave del agente de IA web3 que ha sido impactado esta vez.
2)Sin embargo, lo sorprendente es que tanto Manus como MCP son marcos y estándares orientados a web2 LLM/Agent, que resuelven problemas de interacción y colaboración de datos entre servidores centralizados, y cuyo control de permisos y acceso aún depende de la apertura "activa" de cada nodo del servidor, en otras palabras, es simplemente una herramienta de código abierto.
En teoría, ¿cómo puede un cañón italiano centralizado explotar la fortaleza descentralizada, y de hecho, alejarse por completo del pensamiento central de 'servidores distribuidos, colaboración distribuida, incentivos distribuidos', etc., que busca el Agente de IA web3?
La razón radica en que, en la primera etapa, el Agente web3 AI es demasiado 'web2ificado', por un lado, debido a que muchos equipos provienen de un entorno web2 y carecen de una comprensión suficiente de las necesidades nativas de web3. Por ejemplo, el marco ElizaOS inicialmente era un marco de encapsulación que ayudaba a los desarrolladores a implementar rápidamente aplicaciones de Agente AI, integrando plataformas como Twitter, Discord, y algunos interfaces de API como OpenAI, Claude, DeepSeek, encapsulando adecuadamente algunos marcos generales de Memoria y Carácter, para ayudar a los desarrolladores a crear rápidamente aplicaciones de Agente AI establecidas. Pero si se analiza en detalle, ¿cuál es la diferencia entre este marco de servicios y las herramientas de código abierto de web2? ¿Y cuáles son las ventajas diferenciales?
¿La ventaja es simplemente tener un conjunto de incentivos de Tokenomics? ¿Y luego usar un marco que se puede reemplazar completamente con web2 para incentivar a un grupo aún mayor de Agentes de IA que existen solo para lanzar nuevas monedas? Aterrador... Siguiendo esta lógica, probablemente entiendas por qué Manus + MCP pueden impactar a los Agentes de IA de web3.
Debido a que una serie de marcos de agentes de IA web3 y servicios solo resuelven las necesidades de desarrollo rápido y aplicación similar a los agentes de IA web2, pero no pueden mantenerse al día con la velocidad de innovación de web2 en términos de servicios tecnológicos, estándares y ventajas diferenciadoras, por lo que el mercado/capital ha vuelto a evaluar y fijar precios a la primera generación de agentes de IA web3.
Al hablar de esto, seguramente se ha encontrado el meollo del asunto, ¿pero cómo se puede romper la situación? Solo hay un camino: enfocarse en ofrecer soluciones nativas de web3, ya que el funcionamiento de los sistemas distribuidos y la arquitectura de incentivos son la ventaja absolutamente diferenciadora de web3.
Tomando como ejemplo una plataforma de servicios que utiliza la potencia de cálculo distribuido en la nube, datos, algoritmos, etc., aparentemente, esta acumulación de potencia de cálculo y datos basada en recursos inactivos no puede satisfacer en absoluto las necesidades de implementación ingenieril a corto plazo. Sin embargo, en un momento en el que una gran cantidad de LLM de IA están reuniendo la potencia de cálculo centralizada para lograr avances en el rendimiento en una carrera armamentista, un modelo de servicio que se promociona como "recursos inactivos y bajo costo" naturalmente hará que los desarrolladores de web2 y los grupos de VC lo desprecien.
Pero una vez que el web2 AI Agent haya pasado la etapa de innovación en rendimiento puro, inevitablemente buscará expandir los escenarios de aplicación verticales y optimizar modelos mediante ajustes finos, solo entonces se manifestarán verdaderamente las ventajas del servicio de recursos de AI web3.
De hecho, cuando el web2 AI asciende a una posición de gigante de manera monopolística en cierta etapa, es difícil retroceder y utilizar la idea de rodear la ciudad con aldeas, desglosar escenarios uno por uno. Es en ese momento cuando hay un exceso de desarrolladores de web2 AI y recursos de web3 AI trabajando juntos.
De hecho, además del marco de implementación rápida y la comunicación colaborativa de múltiples agentes de web2, así como la narrativa de emisión de tokens, hay muchas direcciones innovadoras nativas de web3 que valen la pena explorar:
Por ejemplo, equipar un marco de colaboración de consenso distribuido, considerando las características de cálculo debajo de la cadena del gran modelo LLM + almacenamiento de estado en la cadena, se requieren muchos componentes de adaptabilidad.
1、Un sistema de verificación de identidad DID descentralizado que permite a los Agentes tener una identidad en cadena verificable, similar a las direcciones únicas generadas por la ejecución de la máquina virtual para contratos inteligentes, principalmente para el seguimiento y registro continuo de estados posteriores;
2、Un sistema descentralizado de oráculo, principalmente responsable de la obtención y verificación de datos fuera de la cadena, a diferencia de los oráculos convencionales, este sistema de oráculo compatible con el Agente de IA puede requerir una arquitectura combinada de múltiples agentes que incluye una capa de recopilación de datos, una capa de consenso de decisiones y una capa de retroalimentación de ejecución, para que los datos necesarios en la cadena del Agente y los cálculos y decisiones fuera de la cadena puedan llegar en tiempo real.
3、Un sistema de almacenamiento DA descentralizado, debido a la incertidumbre en el estado de la base de conocimiento durante la ejecución del Agente de IA, y el proceso de razonamiento es temporal, se necesita un conjunto de registros de los estados clave detrás de LLM y los caminos de razonamiento para almacenar en un sistema de almacenamiento distribuido, y proporcionar un mecanismo de prueba de datos de costo controlable, para garantizar la disponibilidad de datos durante la verificación de la cadena pública.
4、Una capa de cálculo de privacidad de prueba cero ZKP, que puede estar vinculada a soluciones de cálculo de privacidad, incluyendo TEE, FHE, etc., para lograr cálculos de privacidad en tiempo real + verificación de pruebas de datos, permitiendo que el Agente pueda tener fuentes de datos verticales más amplias (médicas, financieras), lo que a su vez dará lugar a la aparición de más Agentes de servicios profesionales personalizados en la parte superior.
5、Un protocolo de interoperabilidad cruzada, algo similar al marco de definición de protocolo de código abierto MCP, la diferencia radica en que esta solución de interoperabilidad requiere un relay y un mecanismo de programación de comunicaciones adaptativos para que corran, transmitan y verifiquen los agentes, pudiendo así resolver problemas de transferencia de activos y sincronización de estados entre diferentes cadenas, especialmente con la complejidad de contextos y elementos como Prompt, biblioteca de conocimientos, memoria, etc., incluidos en los agentes.
……
En mi opinión, el enfoque clave para conquistar a un verdadero Agente de IA web3 debería centrarse en cómo hacer que el 'flujo de trabajo complejo' del Agente de IA y el 'flujo de verificación de confianza' de la cadena de bloques encajen lo mejor posible. En cuanto a estas soluciones incrementales, existe la posibilidad de que provengan de proyectos narrativos antiguos existentes que se actualizan e iteran, o que sean reforjados por proyectos en la nueva pista narrativa de Agentes de IA.
Este es el camino en el que el Agente de AI web3 debería esforzarse por construir, que es consistente con los fundamentos de la innovación ecológica de AI + Crypto en el macro-relato. Si no hay una exploración innovadora relevante y la construcción de barreras de competencia diferenciadoras, entonces cada movimiento en la pista de AI web2 podría sacudir completamente el mundo de AI web3.