Todos son conscientes de que el mayor obstáculo para la implementación de grandes modelos de IA en aplicaciones verticales como las finanzas, la medicina y el derecho es un solo problema: la "ilusión" en los resultados producidos por la IA, que no puede coincidir con la precisión requerida en escenarios de aplicación reales. ¿Cómo resolverlo? Recientemente, @Mira_Network lanzó la Testnet y presentó una solución. Permítanme explicar de qué se trata:
Primero, las herramientas de modelos grandes de IA presentan situaciones de "alucinación", algo que todos pueden percibir, y las razones son principalmente dos:
Los datos de entrenamiento de los modelos de lenguaje LLM de IA no son lo suficientemente completos, aunque la escala de datos ya es muy grande, aún no pueden cubrir información de algunos campos nicho o especializados, en este momento la IA tiende a hacer "completaciones creativas", lo que a su vez lleva a algunos errores de temporalidad;
Los LLMs de IA dependen esencialmente del "muestreo probabilístico", que reconoce patrones estadísticos y correlaciones en los datos de entrenamiento, y no de una verdadera "comprensión". Por lo tanto, la aleatoriedad del muestreo probabilístico, la inconsistencia en los resultados de entrenamiento y razonamiento, entre otros, pueden llevar a que la IA tenga sesgos al tratar problemas factuales de alta precisión.
¿Cómo resolver este problema? Se ha publicado un artículo en la plataforma ArXiv de la Universidad de Cornell que valida conjuntamente múltiples modelos para mejorar la fiabilidad de los resultados de LLMs.
Una comprensión sencilla es que primero se deja que el modelo principal genere resultados, y luego se integran múltiples modelos de verificación para realizar un «análisis de votación mayoritaria» sobre el problema, lo que puede reducir las «ilusiones» generadas por el modelo.
En una serie de pruebas se descubrió que este método puede aumentar la precisión de la salida de la IA al 95.6%.
Dado que es así, definitivamente se necesita una plataforma de validación distribuida para gestionar y verificar el proceso de interacción colaborativa entre el modelo principal y el modelo de validación. Mira Network es una red intermedia diseñada específicamente para la validación de AI LLMs, que construye una capa de validación confiable entre los usuarios y el modelo de IA base.
Con la existencia de esta red de capa de verificación, se pueden implementar servicios integrados que incluyen protección de la privacidad, garantía de precisión, diseño escalable, interfaces API estandarizadas, entre otros. Esto permite ampliar la posibilidad de implementación de AI en diversos escenarios de aplicación al reducir las ilusiones en las salidas de los LLMs de AI, y también representa una práctica de cómo la red de verificación distribuida de Crypto puede influir en el proceso de implementación de los LLMs de AI.
Por ejemplo, Mira Network compartió varios casos en el ámbito financiero, educativo y del ecosistema blockchain que pueden demostrar:
Gigabrain, una plataforma de intercambio que integra a Mira, permite al sistema añadir una capa de verificación de la precisión del análisis y las predicciones de mercado, filtrando las recomendaciones poco fiables, lo que puede mejorar la precisión de las señales de trading de IA y hacer que los LLMs de IA sean más confiables en escenarios de DeFai;
Learnrite utiliza mira para verificar las preguntas estandarizadas generadas por IA, permitiendo a las instituciones educativas aprovechar a gran escala el contenido generado por IA, sin afectar la precisión del contenido de las pruebas educativas, para mantener estándares educativos estrictos;
El proyecto Kernel de blockchain utiliza el mecanismo de consenso LLM de Mira y lo integra en el ecosistema BNB, creando una red de validación descentralizada (DVN), lo que garantiza en cierta medida la precisión y seguridad de la ejecución de cálculos de IA en la blockchain.
Eso es todo.
En realidad, Mira Network ofrece un servicio de red de consenso de middleware, definitivamente no es la única forma de mejorar la capacidad de las aplicaciones de IA. De hecho, el fortalecimiento a través del entrenamiento de datos, la mejora a través de la interacción de grandes modelos multimodales, y el aumento de los cálculos de privacidad mediante tecnologías criptográficas potenciales como ZKP, FHE, TEE, etc., son rutas opcionales. Sin embargo, en comparación, la solución de Mira se destaca por su rápida implementación y resultados inmediatos.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¿Cómo puede la red Mira utilizar la Descentralización para erradicar la "ilusión" de los grandes modelos?
Todos son conscientes de que el mayor obstáculo para la implementación de grandes modelos de IA en aplicaciones verticales como las finanzas, la medicina y el derecho es un solo problema: la "ilusión" en los resultados producidos por la IA, que no puede coincidir con la precisión requerida en escenarios de aplicación reales. ¿Cómo resolverlo? Recientemente, @Mira_Network lanzó la Testnet y presentó una solución. Permítanme explicar de qué se trata:
Primero, las herramientas de modelos grandes de IA presentan situaciones de "alucinación", algo que todos pueden percibir, y las razones son principalmente dos:
Los datos de entrenamiento de los modelos de lenguaje LLM de IA no son lo suficientemente completos, aunque la escala de datos ya es muy grande, aún no pueden cubrir información de algunos campos nicho o especializados, en este momento la IA tiende a hacer "completaciones creativas", lo que a su vez lleva a algunos errores de temporalidad;
Los LLMs de IA dependen esencialmente del "muestreo probabilístico", que reconoce patrones estadísticos y correlaciones en los datos de entrenamiento, y no de una verdadera "comprensión". Por lo tanto, la aleatoriedad del muestreo probabilístico, la inconsistencia en los resultados de entrenamiento y razonamiento, entre otros, pueden llevar a que la IA tenga sesgos al tratar problemas factuales de alta precisión.
¿Cómo resolver este problema? Se ha publicado un artículo en la plataforma ArXiv de la Universidad de Cornell que valida conjuntamente múltiples modelos para mejorar la fiabilidad de los resultados de LLMs.
Una comprensión sencilla es que primero se deja que el modelo principal genere resultados, y luego se integran múltiples modelos de verificación para realizar un «análisis de votación mayoritaria» sobre el problema, lo que puede reducir las «ilusiones» generadas por el modelo.
En una serie de pruebas se descubrió que este método puede aumentar la precisión de la salida de la IA al 95.6%.
Dado que es así, definitivamente se necesita una plataforma de validación distribuida para gestionar y verificar el proceso de interacción colaborativa entre el modelo principal y el modelo de validación. Mira Network es una red intermedia diseñada específicamente para la validación de AI LLMs, que construye una capa de validación confiable entre los usuarios y el modelo de IA base.
Con la existencia de esta red de capa de verificación, se pueden implementar servicios integrados que incluyen protección de la privacidad, garantía de precisión, diseño escalable, interfaces API estandarizadas, entre otros. Esto permite ampliar la posibilidad de implementación de AI en diversos escenarios de aplicación al reducir las ilusiones en las salidas de los LLMs de AI, y también representa una práctica de cómo la red de verificación distribuida de Crypto puede influir en el proceso de implementación de los LLMs de AI.
Por ejemplo, Mira Network compartió varios casos en el ámbito financiero, educativo y del ecosistema blockchain que pueden demostrar:
Gigabrain, una plataforma de intercambio que integra a Mira, permite al sistema añadir una capa de verificación de la precisión del análisis y las predicciones de mercado, filtrando las recomendaciones poco fiables, lo que puede mejorar la precisión de las señales de trading de IA y hacer que los LLMs de IA sean más confiables en escenarios de DeFai;
Learnrite utiliza mira para verificar las preguntas estandarizadas generadas por IA, permitiendo a las instituciones educativas aprovechar a gran escala el contenido generado por IA, sin afectar la precisión del contenido de las pruebas educativas, para mantener estándares educativos estrictos;
El proyecto Kernel de blockchain utiliza el mecanismo de consenso LLM de Mira y lo integra en el ecosistema BNB, creando una red de validación descentralizada (DVN), lo que garantiza en cierta medida la precisión y seguridad de la ejecución de cálculos de IA en la blockchain.
Eso es todo.
En realidad, Mira Network ofrece un servicio de red de consenso de middleware, definitivamente no es la única forma de mejorar la capacidad de las aplicaciones de IA. De hecho, el fortalecimiento a través del entrenamiento de datos, la mejora a través de la interacción de grandes modelos multimodales, y el aumento de los cálculos de privacidad mediante tecnologías criptográficas potenciales como ZKP, FHE, TEE, etc., son rutas opcionales. Sin embargo, en comparación, la solución de Mira se destaca por su rápida implementación y resultados inmediatos.