Responsable de crecimiento de Cobo AI: en las transacciones en la cadena, necesitamos un mejor conjunto de infraestructura

Título original: Responsable de crecimiento de Cobo AI: En las transacciones en cadena, necesitamos una infraestructura más sólida

Autor original:律动BlockBeats

Fuente original:

Reproducción: Mars Finance

El 21 de abril, en el evento titulado «Descifrando Web4.0: Cuando los Agentes de IA toman el control de los permisos en la cadena», organizado conjuntamente por律动 y Zhihu en Hong Kong, el responsable de crecimiento de Cobo AI, Brad Bao, compartió su discurso principal «Cómo construir una capa de confianza en la economía de agentes», así como la exhibición de la última billetera Agentic de Cobo.

Cuando los agentes de IA necesitan tomar el control de las actividades económicas humanas, y la economía en la cadena se vuelve cada vez más importante, ¿cómo se resuelve la seguridad de los fondos?

Cobo busca llenar precisamente ese vacío en el mercado.

«Cómo construir una capa de confianza en la economía de agentes»

Este es el tema central del discurso de Brad: —no se trata de si los Agentes de IA pueden hacerlo, sino de quién debe gestionar los permisos en la cadena cuando comienzan a usar fondos.

La IA está atravesando una transición: de «responder preguntas» a «actuar en nuestro nombre». Abrir reequilibrios en DeFi, micro pagos y recompensas, arbitraje entre protocolos, ya son realidades. Según estadísticas, para 2025, el 19% de las actividades en la cadena provendrán de operaciones autónomas o de agentes. Los analistas pronostican que para fines de 2026, esta cifra podría alcanzar el 30%.

El dinero está en movimiento. La pregunta es: ¿quién lo controla?

Web3 resuelve la propiedad de los activos, pero Brad opina que: Web4.0 debe resolver las relaciones económicas entre agentes—qué pueden hacer, qué no, y quién es responsable si cometen errores. Es una capa de orden que está más cerca de la ejecución que la propia blockchain, y actualmente esa capa está casi vacía.

Los investigadores en seguridad ya han detectado esta vulnerabilidad. El marco general de agentes tiene decenas a cientos de vulnerabilidades documentadas, muchas de alto riesgo. Lo más problemático es la superficie de ataque específica de los agentes de IA: la inyección de prompts puede insertar instrucciones maliciosas en el contexto del agente; la contaminación del conocimiento puede hacer que el agente forme «conocimientos» erróneos; las ilusiones de parámetros pueden hacer que el agente genere con confianza una dirección de contrato que ni siquiera existe.

Y hay una más, la más difícil: el objetivo del agente es «cumplir una tarea». Cuando los objetivos y las restricciones entran en conflicto, algunos agentes intentarán «ser flexibles», incluyendo modificar parámetros por sí mismos, sortear límites de cuota, o usar protocolos explícitamente prohibidos. Desde la perspectiva del agente, está ayudando a completar la tarea; desde la vista del usuario, está actuando sin autorización y en exceso.

Esto no es una intrusión de hackers ni una vulnerabilidad en el código. Es un riesgo sistémico inherente a la autonomía del agente.

Al usar lenguaje natural para restringir un gran modelo de lenguaje, incluso los prompts más estrictos, desde la perspectiva del agente, son solo «sugerencias que pueden ser reinterpretadas».

La respuesta de Cobo es trasladar las restricciones desde el nivel semántico al nivel de ingeniería.

Demostración de habilidades de la billetera Agentic de Cobo

En la demostración de habilidades posterior, Brad presentó la solución de Cobo: un mecanismo llamado «Pacto (Pact)». Cada pacto contiene cuatro elementos: intención (qué se quiere hacer), ruta (qué cadena y qué dirección), reglas (qué condiciones deben cumplirse), y finalización (cómo se considera completado y cuándo termina).

Este pacto no define sugerencias, sino restricciones físicas.

La lógica operativa específica es: tras recibir la tarea, el agente genera un pacto, que el usuario revisa, confirma o rechaza en la app móvil de Cobo, pudiendo agregar restricciones más estrictas. Una vez que el pacto entra en vigor, el motor de estrategia de tres capas de Cobo verifica cada transacción antes de la firma MPC—las solicitudes que exceden el alcance del pacto son rechazadas automáticamente. Cuando el agente enfrenta fricciones, la única acción legal es detenerse y reportar, no modificar parámetros por iniciativa propia.

Incluso, el agente no puede obtener una firma válida, mucho menos transmitir la transacción.

Este es el punto de partida del diseño de la Cobo Agentic Wallet (CAW) que Brad mencionó: la primera billetera exclusiva para agentes de IA basada en MPC en el mundo. El agente nunca puede tener la clave privada completa; la clave de firma se divide en dos partes: una la posee el usuario, la otra la infraestructura de Cobo. Incluso si el agente sufre los ataques más complejos de «contaminación del conocimiento» o «inyección de prompts» y se descontrola por completo, no podrá generar una firma válida por sí mismo. La ruta de «control único del agente → robo malicioso» está bloqueada desde la arquitectura.

Esto difiere esencialmente de las billeteras agentic en el mercado que dependen de entornos de ejecución confiables TEE, claves API, o cuentas delegadas—MPC ofrece una certeza basada en matemáticas, no promesas a nivel de código.

Si Pact define qué puede y qué no puede hacer un agente, otro mecanismo que Brad compartió, llamado Recipe, responde a otra pregunta: ¿cómo puede un agente hacer las cosas correctamente?

Recipe es un conjunto de estrategias para escenarios de billeteras de agentes. Cada Recipe empaqueta las direcciones de contrato, restricciones de parámetros, rutas de ejecución y reglas de control de riesgos necesarias para ciertos tipos de tareas en la cadena—el agente puede completar el trabajo sin depender de «improvisaciones» del gran modelo.

Un agente equipado con Recipe ya no fantasea con direcciones de contrato, no inventa ABI ni adivina gas. Pact define los límites, Recipe otorga habilidades.

La economía en la cadena no puede basarse solo en suposiciones y suerte; lo que necesitamos no son mejores prompts, sino una infraestructura sólida.

El problema de confianza en la economía de máquinas no se resuelve solo con lenguaje natural.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado