Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en cadena
Resumen
Fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando el potencial de reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos. Con un capital robusto y el control sobre costosos recursos de cómputo, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación compitan con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas impactarán profundamente en el desarrollo saludable de la industria de la IA y en su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se "dirige hacia el bien" o hacia el "mal" se hará más prominente, mientras que los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, con una sobrecarga de atributos meme que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain aún muestra limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación deben mejorarse.
Para lograr verdaderamente la visión de la IA descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la democracia en la gobernanza y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características centrales de AI Layer 1
AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de IA, tiene su arquitectura subyacente y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo, almacenamiento, etc. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento y la inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas como la inferencia y el entrenamiento de IA, logrando la seguridad de la red y la asignación eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas. Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, imponen altas demandas sobre el rendimiento computacional y la capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar diversos tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe estar profundamente optimizado en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo flexible, y debe prever la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas simples" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir el mal uso de modelos, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo subyacente. A través de la integración de entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK), y cálculos seguros multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de tratamiento de datos sean verificados de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de las salidas de IA, logrando que "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en los campos de finanzas, salud y redes sociales, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en cifrado, protocolos de computación de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte para la infraestructura y el desarrollo del ecosistema. Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer una ventaja técnica, sino también proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema, herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: construir un modelo de IA descentralizado de código abierto y leal
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain de IA Layer1 ( en la fase inicial como Layer 2, y luego migrará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se está creando una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (Abierto, Rentable, Leal), permitiendo así que los modelos de IA logren una estructura de propiedad on-chain, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, fomentando así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el diseño ecológico de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase y Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, poseyendo abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un sólido respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de reconocidas firmas de capital riesgo como Delphi, Hashkey y Spartan.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura Central
La arquitectura central de Sentient se compone de dos partes: el canal de IA (AI Pipeline) y el sistema de blockchain.
La tubería de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", e incluye dos procesos centrales:
Curación de datos: proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento coherente con las intenciones de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacenar los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlada por el contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado a través de pruebas de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, desplegadores y validadores.
Marco de Modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar protección clara de propiedad y mecanismos de incentivo económico para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, presenta las siguientes características:
Apertura: el modelo debe ser de código abierto, con código y estructuras de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada vez que se llama al modelo, se activa un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, desplegadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por la DAO, y el uso y la modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no eliminable". Su tecnología principal es:
Huella dactilar incrustada: insertar un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificación de huellas dactilares a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada con licencia: antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta correcta.
Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución seguro y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares es implementado por OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con posibilidad de detección y sanción en caso de violaciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar una firma única durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro en cadena rastreable de las acciones de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.
En el futuro, Sentient planea introducir pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.
 y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
4
Republicar
Compartir
Comentar
0/400
Rugman_Walking
· hace1h
Los gigantes tradicionales se están divirtiendo con la IA.
Ver originalesResponder0
NFTHoarder
· hace13h
¿Algunas grandes empresas juegan a la monopolización o sigue siendo atractivo el web3?
Ver originalesResponder0
MiningDisasterSurvivor
· hace13h
Jeje, ¿en la era de la gran IA incluso los esquemas Ponzi tienen que ponerse un nuevo disfraz, verdad? ¡Es una obra que ya se había representado en 2018!
Informe de investigación de AI Layer1: Seis grandes proyectos construyen un ecosistema de AI Descentralización.
Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en cadena
Resumen
Fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando el potencial de reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente en manos de unos pocos gigantes tecnológicos. Con un capital robusto y el control sobre costosos recursos de cómputo, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación compitan con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas impactarán profundamente en el desarrollo saludable de la industria de la IA y en su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se "dirige hacia el bien" o hacia el "mal" se hará más prominente, mientras que los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, ya han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura aún dependen de servicios en la nube centralizados, con una sobrecarga de atributos meme que dificulta el soporte de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain aún muestra limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación deben mejorarse.
Para lograr verdaderamente la visión de la IA descentralizada, hacer que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con las soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la democracia en la gobernanza y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características centrales de AI Layer 1
AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de IA, tiene su arquitectura subyacente y diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como potencia de cálculo, almacenamiento, etc. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en el registro del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento y la inferencia de modelos de IA, sino que también deben contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas como la inferencia y el entrenamiento de IA, logrando la seguridad de la red y la asignación eficiente de recursos. Solo así se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas. Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, imponen altas demandas sobre el rendimiento computacional y la capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar diversos tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe estar profundamente optimizado en su arquitectura subyacente para satisfacer las demandas de alto rendimiento, baja latencia y paralelismo flexible, y debe prever la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas simples" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir el mal uso de modelos, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar la verificabilidad y alineación de los resultados de salida de IA desde el mecanismo subyacente. A través de la integración de entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK), y cálculos seguros multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de tratamiento de datos sean verificados de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de las salidas de IA, logrando que "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, y en los campos de finanzas, salud y redes sociales, la protección de la privacidad de los datos es especialmente crítica. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en cifrado, protocolos de computación de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte para la infraestructura y el desarrollo del ecosistema. Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer una ventaja técnica, sino también proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema, herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado actual del desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: construir un modelo de IA descentralizado de código abierto y leal
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain de IA Layer1 ( en la fase inicial como Layer 2, y luego migrará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se está creando una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (Abierto, Rentable, Leal), permitiendo así que los modelos de IA logren una estructura de propiedad on-chain, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, fomentando así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el diseño ecológico de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase y Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como IA/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, poseyendo abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un sólido respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de reconocidas firmas de capital riesgo como Delphi, Hashkey y Spartan.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura Central
La arquitectura central de Sentient se compone de dos partes: el canal de IA (AI Pipeline) y el sistema de blockchain.
La tubería de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", e incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de Modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar protección clara de propiedad y mecanismos de incentivo económico para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, presenta las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no eliminable". Su tecnología principal es:
Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución seguro y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares es implementado por OML 1.0 en la línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con posibilidad de detección y sanción en caso de violaciones.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar una firma única durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro en cadena rastreable de las acciones de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.
En el futuro, Sentient planea introducir pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.
![Biteye y PANews publican conjuntamente el informe de investigación AI Layer1: Buscando la tierra fértil para DeAI en la cadena](