AI AgentТокен падає безперервно, це через занадто гарячий казан MCP?

Друг сказав, що продовжуваний тренд, пов'язаний з цілями веб-агентів штучного інтелекту, таких як #ai16z, arc, обумовлений нещодавнім популярністю протоколу MCP? На перший погляд, це здається дещо незв'язаним - WTF має спільне? Проте після ретельного розгляду виявляється, що це має певну логіку: оціночна логіка вартості веб-агентів штучного інтелекту web3 змінилася, існує необхідність в коригуванні напрямку наративу та шляху впровадження продукту! Нижче подано особисту думку:

  1. MCP (Model Context Protocol) - це відкритий стандартний протокол, який має на меті забезпечити безшовне підключення різних типів штучного інтелекту LLM/Agent до різноманітних джерел даних та інструментів, що є аналогом універсального USB-інтерфейсу «plug-and-play», який замінює минулі способи упаковки «кінце-до-кінця».

Загалом, між додатками штучного інтелекту існують очевидні інформаційні острови, для забезпечення взаємодії між Агентом/LLM необхідно розробляти відповідні API-інтерфейси, що ускладнює процес та обмежує двосторонню взаємодію, зазвичай існують обмеження з доступу до моделей та обмеження прав.

Поява MCP дорівнює створенню єдиного фреймворку, який дозволяє застосункам штучного інтелекту вийти з минулого стану ізольованих даних, реалізувати можливість "динамічного" доступу до зовнішніх даних та інструментів, що може значно знизити складність розробки та ефективність інтеграції, особливо у виконанні завдань автоматизації, запитів реального часу та міжплатформенного співробітництва.

Коли мова заходить про це, багато людей одразу ж думають, що якщо інтегрувати це в MCP, що сприяє співпраці багатьох агентів, з інноваційною платформою Manus, яка використовує багатьох агентів для співпраці, це буде непереможним?

Так, лише Manus + MCP становлять ключовий удар для агента web3 AI в цьому випадку.

2)Але дивно, що якби Manus, так і MCP, це фреймворки і стандарти протоколу, спрямовані на web2 LLM/Agent, вирішують проблеми обміну даними та співпраці між централізованими серверами, їхні права та контроль доступу все ще залежать від «активного» відкриття кожного серверного вузла, іншими словами, це лише властивість відкритого коду.

Звичайно, як може централізована італійська гармата вибухнути, відхилившись від основної ідеї "розподіленого сервера, розподіленої співпраці, розподіленого стимулювання" і т.д., яку пропагує web3 AI Agent?

Звідси випливає, що перший етап веб3 AI Agent був занадто 'web2-ізованим', з одного боку, через те, що багато команд походять з фону web2, ім не вистачає повного розуміння потреб web3 Native, наприклад, початково ElizaOS framework був простою обгорткою, яка допомагала розробникам швидко розгортати застосунки AI Agent, саме вона інтегрувала платформи Twitter, Discord та деякі API-інтерфейси, такі як OpenAI, Claude, DeepSeek, відповідно упаковувала деякі загальні фреймворки Memory, Character, що допомагало розробникам швидко розробляти застосунки AI Agent. Але якщо бути точним, у чому відмінність цієї сервісної рамки від відкритих інструментів web2? Які переваги диференціації?

Отже, чи перевага полягає в системі стимулювання Tokenomics? А потім використовувати набір рамок, які можна повністю замінити за допомогою web2, щоб стимулювати більше штучних інтелектуальних агентів, які існують для випуску нових монет? Жахливо... Якщо йдете за цією логікою, ви приблизно розумієте, чому Manus + MCP можуть вплинути на штучні інтелектуальні агенти web3?

Оскільки багато фреймворків та служб від агентів штучного інтелекту web3 лише вирішують потреби швидкого розробки та застосовуваності, схожі на агентів штучного інтелекту web2, але в технічному обслуговуванні, стандартах та конкурентних перевагах відстають від інноваційної швидкості web2, тому ринок / капітал провів повторну оцінку та ціноутворення першої хвилі агентів штучного інтелекту web3.

  1. Кажучи про це, загалом проблему вже, напевно, знайшли, але як розібратися? Тільки один шлях: сконцентруйтеся на розв'язанні проблем, які є власними для web3, оскільки робота розподілених систем та системи стимулювання є абсолютною відмінністю web3.

На прикладі платформи обслуговування розподіленого хмарного потужності, даних, алгоритмів та інших послуг, на перший погляд, здається, що ця потужність та дані, які агрегуються з приводу вільних ресурсів, короткостроково взагалі не можуть задовольнити потреби інноваційної реалізації, але в момент, коли велика кількість штучних інтелектів зосереджує централізовану потужність на здійснення відбувається гонка зброї, модель обслуговування з підтримкою "вільних ресурсів, низькі витрати" природно зробить розробників web2 та групу VC нехтувати.

Проте, коли AI Agent web2 пройде етап інновацій у продуктивності, він обов'язково буде працювати над розширенням вертикальних застосувань і оптимізацією точної настройки моделей в різних сценаріях, тільки тоді стане очевидними переваги ресурсів AI web3.

Насправді, коли штучний інтелект web2, який піднявся на гігантську позицію за допомогою монопольних ресурсів, досягає певної стадії, важко повернутися назад і використовувати думку про оточення міста сільською місцевістю, розчленовуючи його по сценаріях, коли вже настає час для розвитку web2 AI розробників + об'єднання зусиль з ресурсами web3 AI.

Фактично, крім швидкого розгортання + багатоагентного комунікаційного фреймворку web2 + відповідно до протоколу Tokenomic, у web3 AI Agent є багато інноваційних напрямків, які варто дослідити:

Наприклад, з урахуванням особливостей розподіленої консенсусної співпраці з LLM великими моделями + зберіганням стану на ланцюжку, потрібно багато адаптивних компонентів.

1、Система перевірки особистості DID, що децентралізована, дозволяє агенту мати перевірену ідентичність на ланцюжку, що подібно унікальній адресі, що генерується віртуальною машиною для інтелектуальних контрактів, головна мета полягає в постійному відстеженні та реєстрації подальшого стану.

  1. Система оракула децентралізованого Oracle, яка відповідає за надійне отримання та перевірку даних поза ланцюгом, на відміну від попереднього Oracle, ця система можливо також потребує комбінованої архітектури декількох агентів, яка включає шар збору даних, шар консенсусу прийняття рішень, шар зворотного зв'язку відповідно до AI Agent, щоб даними, потрібними агентові на ланцюгу, та обчисленням і прийняттям рішень поза ланцюгом могли здійснюватися в реальному часі.

  2. Децентралізована система DA сховища, через невизначеність стану бази знань під час роботи агента ШІ, а процес висновків також є тимчасовим, необхідно записувати ключові бібліотеки станів і шляхи висновків за LLM і зберігати їх у розподіленій системі зберігання, а також забезпечити контрольований за вартістю механізм перевірки даних для забезпечення доступності даних під час перевірки публічного ланцюга;

4、Шар нульового доведення ZKP конфіденційного обчислювального шару, який може бути пов'язаний з рішеннями конфіденційного обчислення, такими як TEE, FHE, тощо, для реалізації реального часу конфіденційного обчислення + перевірки доказів даних, щоб Агент міг мати більш широкі джерела вертикальних даних (медичні, фінансові), і внаслідок цього з'являються більше спеціалізованих послуг Агента на вершині.

5、один набір протоколів міжланцюгової взаємодії, який дещо схожий на рамку, визначену відкритим протоколом MCP, відмінність полягає в тому, що ця система розв'язання взаємодії вимагає наявності реле та механізму комунікації, які працюють, передають та перевіряють агентів, здатних вирішувати проблеми перенесення активів та синхронізації стану між ланцюгами, особливо включаючи складні стани, такі як контекст агента та Prompt, база знань, пам'ять та інше.

……

На мою думку, справжній веб3 AI Agent повинен зосередитися на тому, як зробити взаємодію «складного робочого процесу» AI Agent і «потоку перевірки довіри» блокчейну якомога більш сумісною. Щодо цих інкрементальних рішень, вони можуть бути як покращеними ітераціями вже існуючих проектів старої наративної сфери, так і новими проектами на ниві наративної галузі AI Agent, які з'явилися знову.

Ось куди має прагнути будівництво веб3 штучного інтелекту - це відповідне напрямок, що відповідає основним принципам інноваційного екологічного фонду штучного інтелекту + криптовалюта в широкому макроекономічному контексті. Якщо не буде відповідних інноваційних відкриттів та створення конкурентних переваг у веб3, то кожен рух у сфері штучного інтелекту веб2 може зробити суттєві зміни в сфері штучного інтелекту веб3.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • 2
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити