Todos estão cientes de que o maior obstáculo para a implementação de grandes modelos de IA em cenários de aplicação vertical como finanças, saúde e direito é um único problema: o fenômeno da "ilusão" nos resultados produzidos pela IA que não corresponde à precisão necessária nos cenários de aplicação reais. Como resolver isso? Recentemente, @Mira_Network lançou uma rede de testes pública, apresentando uma solução, e eu vou explicar o que está acontecendo:
Primeiro, as ferramentas de modelos grandes de IA apresentam situações de "alucinação", que todos podem perceber, e as razões principais são duas:
Os dados de treino dos LLMs de IA não são suficientemente completos; embora a escala dos dados já seja muito grande, ainda não conseguem cobrir informações de áreas menos conhecidas ou especializadas, levando a IA a fazer "completamentos criativos", resultando em alguns erros de atualidade.
2、Os LLMs de IA baseiam-se essencialmente na "amostragem probabilística", que é o reconhecimento de padrões estatísticos e correlações nos dados de treinamento, em vez de uma verdadeira "compreensão". Assim, a aleatoriedade da amostragem probabilística, a inconsistência nos resultados de treinamento e inferência, entre outros, podem levar a desvios da IA ao lidar com questões de precisão factual elevada;
Como resolver este problema? A plataforma ArXiv da Universidade de Cornell publicou um artigo que valida um método para aumentar a confiabilidade dos resultados dos LLMs através de múltiplos modelos.
Uma compreensão simples é que primeiro o modelo principal gera resultados, e depois vários modelos de validação são integrados para realizar uma "análise de votação majoritária" sobre a questão, reduzindo assim as "ilusões" geradas pelo modelo.
Em uma série de testes, foi descoberto que este método pode aumentar a precisão da saída da IA para 95,6%.
Neste caso, uma plataforma de verificação distribuída é definitivamente necessária para gerenciar e verificar o processo de interação colaborativa entre o modelo mestre e o modelo de verificação, e a Mira Network é uma rede de middleware especializada na construção de verificação de LLMs de IA, construindo uma camada de verificação confiável entre os usuários e o modelo de IA subjacente.
Com a existência desta rede de camada de verificação, é possível implementar serviços integrados, incluindo proteção de privacidade, garantia de precisão, design escalável, interfaces API padronizadas, entre outros. Pode-se expandir a viabilidade da implementação da IA em vários cenários de aplicação, reduzindo as alucinações nas saídas dos LLMs de IA, e também é uma prática de como a rede de verificação distribuída Crypto pode atuar no processo de implementação dos LLMs de IA.
Por exemplo, a Mira Network compartilhou alguns casos nas áreas financeira, educacional e do ecossistema blockchain que podem servir de evidência:
1)Após a integração do Mira na plataforma de negociação Gigabrain, o sistema pode adicionar uma camada de verificação para a precisão da análise de mercado e previsões, filtrando sugestões não confiáveis, o que pode aumentar a precisão dos sinais de negociação de IA, tornando os LLMs de IA mais confiáveis em cenários DeFai;
Learnrite utiliza o mira para validar questões de exames padronizados geradas por IA, permitindo que as instituições de ensino utilizem em grande escala conteúdo gerado por IA, sem comprometer a precisão do conteúdo dos testes educacionais, a fim de manter padrões educacionais rigorosos;
O projeto Kernel da blockchain utilizou o mecanismo de consenso LLM da Mira, integrando-o no ecossistema BNB, criando uma rede de validação descentralizada DVN, o que garante, até certo ponto, a precisão e a segurança da execução de cálculos de IA na blockchain.
Acima.
Na verdade, a Mira Network oferece um serviço de rede de consenso de middleware, que certamente não é a única maneira de melhorar a capacidade de aplicação de IA. De fato, caminhos alternativos incluem o aumento através de treinamento de dados, interação com grandes modelos multimodais, e o aumento da computação de privacidade através de potenciais tecnologias criptográficas como ZKP, FHE, TEE, entre outros. No entanto, em comparação, a solução da Mira se destaca pela rápida implementação prática e resultados diretos.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
A Mira Network pode resolver o problema da "ilusão" dos grandes modelos de IA?
Escrito por: Haotian
Todos estão cientes de que o maior obstáculo para a implementação de grandes modelos de IA em cenários de aplicação vertical como finanças, saúde e direito é um único problema: o fenômeno da "ilusão" nos resultados produzidos pela IA que não corresponde à precisão necessária nos cenários de aplicação reais. Como resolver isso? Recentemente, @Mira_Network lançou uma rede de testes pública, apresentando uma solução, e eu vou explicar o que está acontecendo:
Primeiro, as ferramentas de modelos grandes de IA apresentam situações de "alucinação", que todos podem perceber, e as razões principais são duas:
2、Os LLMs de IA baseiam-se essencialmente na "amostragem probabilística", que é o reconhecimento de padrões estatísticos e correlações nos dados de treinamento, em vez de uma verdadeira "compreensão". Assim, a aleatoriedade da amostragem probabilística, a inconsistência nos resultados de treinamento e inferência, entre outros, podem levar a desvios da IA ao lidar com questões de precisão factual elevada;
Como resolver este problema? A plataforma ArXiv da Universidade de Cornell publicou um artigo que valida um método para aumentar a confiabilidade dos resultados dos LLMs através de múltiplos modelos.
Uma compreensão simples é que primeiro o modelo principal gera resultados, e depois vários modelos de validação são integrados para realizar uma "análise de votação majoritária" sobre a questão, reduzindo assim as "ilusões" geradas pelo modelo.
Em uma série de testes, foi descoberto que este método pode aumentar a precisão da saída da IA para 95,6%.
Neste caso, uma plataforma de verificação distribuída é definitivamente necessária para gerenciar e verificar o processo de interação colaborativa entre o modelo mestre e o modelo de verificação, e a Mira Network é uma rede de middleware especializada na construção de verificação de LLMs de IA, construindo uma camada de verificação confiável entre os usuários e o modelo de IA subjacente.
Com a existência desta rede de camada de verificação, é possível implementar serviços integrados, incluindo proteção de privacidade, garantia de precisão, design escalável, interfaces API padronizadas, entre outros. Pode-se expandir a viabilidade da implementação da IA em vários cenários de aplicação, reduzindo as alucinações nas saídas dos LLMs de IA, e também é uma prática de como a rede de verificação distribuída Crypto pode atuar no processo de implementação dos LLMs de IA.
Por exemplo, a Mira Network compartilhou alguns casos nas áreas financeira, educacional e do ecossistema blockchain que podem servir de evidência:
1)Após a integração do Mira na plataforma de negociação Gigabrain, o sistema pode adicionar uma camada de verificação para a precisão da análise de mercado e previsões, filtrando sugestões não confiáveis, o que pode aumentar a precisão dos sinais de negociação de IA, tornando os LLMs de IA mais confiáveis em cenários DeFai;
Learnrite utiliza o mira para validar questões de exames padronizados geradas por IA, permitindo que as instituições de ensino utilizem em grande escala conteúdo gerado por IA, sem comprometer a precisão do conteúdo dos testes educacionais, a fim de manter padrões educacionais rigorosos;
O projeto Kernel da blockchain utilizou o mecanismo de consenso LLM da Mira, integrando-o no ecossistema BNB, criando uma rede de validação descentralizada DVN, o que garante, até certo ponto, a precisão e a segurança da execução de cálculos de IA na blockchain.
Acima.
Na verdade, a Mira Network oferece um serviço de rede de consenso de middleware, que certamente não é a única maneira de melhorar a capacidade de aplicação de IA. De fato, caminhos alternativos incluem o aumento através de treinamento de dados, interação com grandes modelos multimodais, e o aumento da computação de privacidade através de potenciais tecnologias criptográficas como ZKP, FHE, TEE, entre outros. No entanto, em comparação, a solução da Mira se destaca pela rápida implementação prática e resultados diretos.