Усі розуміють, що найбільшою перешкодою для впровадження великих моделей ШІ в фінансові, медичні, юридичні та інші вертикальні прикладні сценарії є одна: проблема «галюцинацій» у виходах ШІ, яка не відповідає потребам точності в реальних сценаріях використання. Як це вирішити? Нещодавно @Mira_Network запустила публічну тестову мережу і представила набір рішень, я розповім, у чому справа:
По-перше, інструменти великих AI-моделей мають випадки «іллюзій», що всі можуть помітити, причини головним чином дві:
Дані для навчання AI LLMs не є достатньо повними, хоча обсяг даних вже дуже великий, все ще не можна охопити інформацію з деяких нішевих або спеціалізованих областей, і в цей час AI має тенденцію до здійснення "креативного доповнення", що призводить до деяких помилок у реальному часі;
AI LLMs по своїй суті залежать від «ймовірнісного відбору», який є виявленням статистичних шаблонів і кореляцій у навчальних даних, а не справжнім «розумінням», тому випадковість ймовірнісного відбору, непослідовність результатів навчання та міркування тощо можуть призводити до спотворень AI при обробці високоточних фактологічних питань;
Як вирішити цю проблему? На платформі ArXiv Корнельського університету було опубліковано статтю, в якій описується метод підвищення надійності результатів LLM за допомогою спільної перевірки кількома моделями.
Просте розуміння полягає в тому, що спочатку основна модель генерує результати, а потім інтегруються кілька моделей перевірки для проведення «аналітичного голосування», що дозволяє зменшити «ілюзії», які можуть виникнути у моделі.
У серії тестів було виявлено, що цей метод може підвищити точність виходу AI до 95,6%.
Отже, напевно, потрібна розподілена платформа верифікації для управління та перевірки процесу співпраці між основною моделлю та моделлю верифікації. Mira Network є такою проміжною мережею, спеціально створеною для верифікації AI LLMs, яка будує надійний шар верифікації між користувачем та базовою AI моделлю.
Завдяки існуванню цієї мережі перевірки можна реалізувати інтегровані послуги, включаючи захист конфіденційності, забезпечення точності, масштабованість дизайну, стандартизовані API-інтерфейси тощо. Це дозволяє розширити можливості впровадження AI у різних сегментах застосування за рахунок зменшення ілюзій, що генеруються AI LLMs, і є практичною реалізацією впливу дистрибутивної мережі перевірки Crypto на процеси реалізації AI LLMs.
Наприклад, Mira Network поділилася кількома прикладами в фінансовій, освітній та блокчейн-екосистемі, які можуть підтвердити:
Gigabrain Після інтеграції з Mira торгова платформа може додати один рівень верифікації для точності ринкового аналізу та прогнозів, відфільтрувати ненадійні пропозиції, що може підвищити точність торгових сигналів AI, роблячи використання AI LLMs у сценаріях DeFi більш надійним;
Learnrite використовує mira для верифікації стандартизованих іспитових завдань, створених AI, що дозволяє освітнім установам масово використовувати AI для генерування контенту, при цьому не впливаючи на точність змісту освітніх тестів, щоб підтримувати суворі освітні стандарти;
3)Блокчейн-проект Kernel використовує механізм консенсусу LLM Mira, інтегруючи його в екосистему BNB, створюючи децентралізовану мережу верифікації DVN, що забезпечує певний рівень точності та безпеки виконання AI-обчислень на блокчейні.
Вищезазначене.
Фактично, завдяки навчальним покращенням сторони даних, покращенню взаємодії мультимодальних великих моделей та покращенню обчислень конфіденційності за допомогою потенційних криптографічних технологій, таких як ZKP, FHE, TEE тощо, все це є необов'язковими шляхами. Однак рішення Міри дороге тим, що може бути реалізоване швидко і має прямі результати.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Чи може мережа Mira вирішити проблему "галюцинацій" великих моделей ШІ?
Автор: Haotian
Усі розуміють, що найбільшою перешкодою для впровадження великих моделей ШІ в фінансові, медичні, юридичні та інші вертикальні прикладні сценарії є одна: проблема «галюцинацій» у виходах ШІ, яка не відповідає потребам точності в реальних сценаріях використання. Як це вирішити? Нещодавно @Mira_Network запустила публічну тестову мережу і представила набір рішень, я розповім, у чому справа:
По-перше, інструменти великих AI-моделей мають випадки «іллюзій», що всі можуть помітити, причини головним чином дві:
Дані для навчання AI LLMs не є достатньо повними, хоча обсяг даних вже дуже великий, все ще не можна охопити інформацію з деяких нішевих або спеціалізованих областей, і в цей час AI має тенденцію до здійснення "креативного доповнення", що призводить до деяких помилок у реальному часі;
AI LLMs по своїй суті залежать від «ймовірнісного відбору», який є виявленням статистичних шаблонів і кореляцій у навчальних даних, а не справжнім «розумінням», тому випадковість ймовірнісного відбору, непослідовність результатів навчання та міркування тощо можуть призводити до спотворень AI при обробці високоточних фактологічних питань;
Як вирішити цю проблему? На платформі ArXiv Корнельського університету було опубліковано статтю, в якій описується метод підвищення надійності результатів LLM за допомогою спільної перевірки кількома моделями.
Просте розуміння полягає в тому, що спочатку основна модель генерує результати, а потім інтегруються кілька моделей перевірки для проведення «аналітичного голосування», що дозволяє зменшити «ілюзії», які можуть виникнути у моделі.
У серії тестів було виявлено, що цей метод може підвищити точність виходу AI до 95,6%.
Отже, напевно, потрібна розподілена платформа верифікації для управління та перевірки процесу співпраці між основною моделлю та моделлю верифікації. Mira Network є такою проміжною мережею, спеціально створеною для верифікації AI LLMs, яка будує надійний шар верифікації між користувачем та базовою AI моделлю.
Завдяки існуванню цієї мережі перевірки можна реалізувати інтегровані послуги, включаючи захист конфіденційності, забезпечення точності, масштабованість дизайну, стандартизовані API-інтерфейси тощо. Це дозволяє розширити можливості впровадження AI у різних сегментах застосування за рахунок зменшення ілюзій, що генеруються AI LLMs, і є практичною реалізацією впливу дистрибутивної мережі перевірки Crypto на процеси реалізації AI LLMs.
Наприклад, Mira Network поділилася кількома прикладами в фінансовій, освітній та блокчейн-екосистемі, які можуть підтвердити:
Gigabrain Після інтеграції з Mira торгова платформа може додати один рівень верифікації для точності ринкового аналізу та прогнозів, відфільтрувати ненадійні пропозиції, що може підвищити точність торгових сигналів AI, роблячи використання AI LLMs у сценаріях DeFi більш надійним;
Learnrite використовує mira для верифікації стандартизованих іспитових завдань, створених AI, що дозволяє освітнім установам масово використовувати AI для генерування контенту, при цьому не впливаючи на точність змісту освітніх тестів, щоб підтримувати суворі освітні стандарти;
3)Блокчейн-проект Kernel використовує механізм консенсусу LLM Mira, інтегруючи його в екосистему BNB, створюючи децентралізовану мережу верифікації DVN, що забезпечує певний рівень точності та безпеки виконання AI-обчислень на блокчейні.
Вищезазначене.
Фактично, завдяки навчальним покращенням сторони даних, покращенню взаємодії мультимодальних великих моделей та покращенню обчислень конфіденційності за допомогою потенційних криптографічних технологій, таких як ZKP, FHE, TEE тощо, все це є необов'язковими шляхами. Однак рішення Міри дороге тим, що може бути реалізоване швидко і має прямі результати.