a16z: Por qué la próxima década de mil millones de usuarios de IA accederá a través de redes de confianza

作者:Sakina Arsiwala,investigadora de a16z;fuente:a16z crypto;compilado por:Shaw 金色财经

YouTube的启示:内容是一种地缘政治武器

Hace años, fui responsable del producto de búsqueda internacional de Google y luego lideré la expansión internacional de YouTube, llevando el producto a 21 países en solo 14 meses. Lo que hice no fue solo localización de productos, sino construir relaciones de contenido locales, buscando formas de navegar por los numerosos campos minados de leyes, políticas y acceso al mercado. Recientemente, también estuve a cargo de la gestión de la salud de la comunidad (confianza y seguridad) en Twitch. A lo largo de mi carrera, también fundé dos startups.

El campo de la inteligencia artificial (IA) de hoy tiene sorprendentes similitudes con las etapas de crecimiento de Google y YouTube en sus primeros años. Mi carrera me ha llevado a reconocer un hecho: la globalización no es una función del producto, sino una lucha geopolítica. La lección más profunda es que la promoción de canales nunca es puramente un problema técnico. El crecimiento depende de socios locales, comunicadores culturales y líderes de opinión de confianza, quienes construyen puentes entre plataformas globales y usuarios locales.

Viví la experiencia de la prohibición de derechos de autor de GEMA en Alemania: una agencia de derechos de música casi excluyó a todo un país del programa de promoción paneuropeo de YouTube. También viví la controversia de la orden de arresto por desacato en Tailandia: como responsable de YouTube, enfrenté el riesgo de ser arrestado debido a contenido en la plataforma que se consideró una ofensa al rey tailandés, incluso sin poder transitar por el país. He sido testigo de cómo Pakistán cortó el acceso a Internet en todo el país para prohibir un video. También recuerdo que, debido a un conflicto entre el algoritmo global y los tabúes religiosos locales, nuestra oficina en India fue atacada.

Lo que realmente necesitamos enfrentar nunca ha sido solo un problema de políticas o infraestructura, sino barreras de confianza.

En cada mercado, debe haber alguien que asuma el costo de aclarar qué contenido es seguro, aceptable y valioso para que los usuarios se involucren. Este costo se acumula, y con el tiempo se forma un impuesto de confianza: asumido por un pequeño grupo inicialmente, pero luego compartido por todos.

Hoy, la misma tensión se está reproduciendo en el campo de la inteligencia artificial, solo que la situación es más grave, la evolución más rápida y el impacto más evidente. El gobierno federal de EE. UU. y Anthropic se han estancado recientemente, lo que ha generado un gran debate público; OpenAI enfrenta cada vez más escrutinio debido a sus relaciones con el sector público. Estamos siendo testigos de un cambio: la aceptación por parte de los usuarios ya no depende solo de la utilidad, la influencia ideológica está profundizándose. En este entorno, la confianza es muy frágil, y un colapso de confianza que parece pequeño puede provocar una rápida pérdida masiva de usuarios.

Google está invirtiendo fuertemente en su estrategia de confianza profunda, utilizando la familiaridad de los usuarios con el ecosistema existente de Workspace y búsqueda para abrir mercados, pero el panorama global se está volviendo cada vez más dividido. Las estrictas líneas rojas regulatorias de la UE, la feroz competencia en el desarrollo de IA en China, y el creciente nacionalismo en IA han mantenido al mundo en un alto estado de alerta.

La lección de 2026 es clara: la confianza institucional y el reconocimiento cultural están ahora intrínsecamente ligados al producto mismo. Sin confianza como base, no se puede construir un sistema operativo inteligente.

Esta es la barrera soberana: la frontera estructural donde la inteligencia artificial global se encuentra con el control local. Desde una perspectiva de producto, se presenta de forma más directa: barreras de confianza.

Toda expansión de sistemas de inteligencia artificial globalmente, eventualmente, chocará con este muro. En este punto crítico, la aceptación por parte de los usuarios ya no depende de la capacidad técnica, sino de si los usuarios, instituciones y gobiernos confían en ella en su propio contexto.

Internet solía ser sin fronteras. La inteligencia artificial no lo será.

Exploradores时代的落幕

Los primeros mil millones de usuarios de inteligencia artificial eran exploradores y optimistas tecnológicos. Pero la era de los exploradores ha llegado a su fin. En los últimos tres años, hemos estado en la era de la ingeniería de prompts y la alquimia digital, donde la gente abre aplicaciones populares como ChatGPT y Claude como si fueran a un templo digital, presenciando los milagros de la inteligencia generativa. En esta era, el único indicador importante es la capacidad del modelo: ¿quién lidera las últimas pruebas de referencia? ¿quién tiene la mayor cantidad de parámetros?

Pero al entrar en 2026, la hoguera de la era de los exploradores se está apagando. Ya no estamos creando juguetes para los curiosos, sino que nos dirigimos hacia sistemas operativos inteligentes: esos canales subyacentes invisibles y omnipresentes que proporcionan la energía diaria para emprendedores individuales en São Paulo, Brasil, y trabajadores comunitarios de salud en Yakarta, Indonesia.

Estos usuarios no son exploradores, sino demandantes pragmáticos. No quieren dialogar con un “fantasma” dentro de la máquina, solo quieren una herramienta que les ayude a resolver los obstáculos de la vida real. Este es el verdadero momento de cruzar el abismo para atraer a la próxima ola de mil millones de usuarios. Y es en esta franja aún no completamente explorada donde el sueño global de API de Silicon Valley choca con la realidad más dura de esta era: barreras soberanas.

El cambio fundamental es: la difusión de la inteligencia artificial ya no es principalmente un problema de capacidad del modelo, sino dedifusión y confianza. Los laboratorios de vanguardia seguirán mejorando el rendimiento del modelo, pero la llegada de la próxima ola de mil millones de usuarios no se basará en que un modelo obtenga una puntuación más alta en pruebas de referencia, sino en que la inteligencia artificial los alcance a través de instituciones, creadores y comunidades en las que ya confían.

La realidad de 2026: la IA se convierte en un tema de infraestructura nacional

En 2026, el desafío central de la industria ya no será hacer que los modelos sean más inteligentes, sino obtener permisos de acceso para los modelos. La barrera soberana es la frontera donde la inteligencia general y la identidad nacional se encuentran. A nivel global, esta barrera ya está tomando forma: requisitos de localización de datos, planes de computación de IA a nivel nacional, y proyectos de modelos liderados por gobiernos en lugares como India, los Emiratos Árabes Unidos y Europa. Las políticas de infraestructura en la nube iniciales están evolucionando rápidamente hacia políticas de soberanía inteligente. Dentro de este marco, los países se niegan a convertirse en “colonias de datos”, exigiendo que los sistemas inteligentes que sirven a sus ciudadanos operen dentro de sus depósitos de datos soberanos, hereden la cultura local y respeten las fronteras nacionales.

Cuando veas a los CEO de Google (Sundar Pichai), OpenAI (Sam Altman), Anthropic (Dario Amodei) y DeepMind (Demis Hassabis) aparecer junto al primer ministro indio Modi en la cumbre de influencia de inteligencia artificial de India en 2026, lo que verás es la manifestación real de las barreras soberanas. La visión M.A.N.A.V. propuesta por el primer ministro Modi (sistema ético, gobernanza responsable, soberanía nacional, IA inclusiva, sistemas confiables) emite una señal clara: si los laboratorios de vanguardia intentan competir directamente por los consumidores, eventualmente serán eliminados por la regulación. Y la confianza es la única moneda que permite cruzar estas fronteras.


Dificultades de la disminución de los efectos de red y por qué obligan a nuevas estrategias

A diferencia de las plataformas sociales, donde cada nuevo usuario puede aumentar el valor para todos los demás, el valor de la inteligencia artificial está en gran medida localizado. Mi milésimo prompt no hará que el sistema sea más valioso para ti directamente. Aunque el ciclo de datos puede optimizar el modelo, la experiencia del usuario siempre es personal y no social. La IA es una herramienta privada, puede tener matices emocionales, pero su núcleo es una herramienta práctica.

Esto genera un problema estructural: la IA no puede apoyarse en el efecto de red compuesto que permitió el auge de la generación anterior de plataformas. Sin un mapa social nativo, la industria solo puede caer en un ciclo de alto consumo, persiguiendo constantemente a los usuarios tempranos, jugadores intensivos y élites tecnológicas. Esta estrategia funcionó en la era de los exploradores, pero no puede escalar para alcanzar a los próximos dos mil millones de usuarios.

Más importante aún, este modelo fallará por completo ante las barreras soberanas. Porque cuando los efectos de red son débiles, la confianza no se forma espontáneamente, sino que debe ser importada externamente.

Transformación: de efectos de red a efectos de confianza

Si la inteligencia artificial no puede apoyarse en los efectos de red para su difusión, debe depender de otra fuerza: la red de confianza. Este es el cambio clave:

De adquirir usuarios a empoderar intermediarios

YouTube pudo escalar porque aprovechó la red de confianza humana existente. La IA debe hacer lo mismo. En lugar de intentar establecer relaciones directas con miles de millones de usuarios, la estrategia ganadora debería ser:

  • Empoderar a quienes ya tienen relaciones con los usuarios;

  • Utilizar la confianza que ya han acumulado;

  • Distribuir capacidades inteligentes a través de esos canales.

Por qué es crucial

En un mundo modelado por barreras soberanas:

  • Los canales de distribución son limitados;

  • Los modelos de contacto directo con el usuario son frágiles;

  • La confianza es localizada, no globalizada.

Sin un fuerte efecto de red, la inteligencia artificial no podrá escalar a la fuerza bruta, debe infiltrar a través de la confianza. La inteligencia artificial no tiene efectos de red, tiene efectos de confianza.

Solución: llega la era de los intermediarios

¿Cómo logró YouTube establecerse en el mercado internacional? No fue a través de un mejor reproductor, ni simplemente mediante la localización de la interfaz. La clave del éxito fue convertirse en la plataforma preferida de aquellos que ya contaban con un grupo de confianza local. En cada mercado, el punto de partida de la aceptación del usuario no es YouTube en sí, sino los anclajes de identidad: aquellos individuos y comunidades que ya dominan el discurso cultural:

  • Páginas de fans de Bollywood que recopilan fragmentos raros de Shah Rukh Khan para la comunidad de expatriados en Dubái

  • Fanáticos de la animación en EE. UU. que construyen un ecosistema de contenido profundo que los medios tradicionales no han cubierto

  • Comediantes locales, maestros y creadores de montajes que transforman el contenido global en formas que se ajustan a la comprensión cultural

Estos creadores no solo suben videos, están interpretando Internet para su audiencia, actuando como intermediarios de confianza, construyendo puentes entre plataformas extranjeras y usuarios locales. El éxito de YouTube radica en convertirse en la infraestructura invisible que sostiene estos anclajes de identidad.

La lógica central ignorada: el modelo de cara al consumidor choca con las barreras soberanas

Hoy, la mayoría de las empresas de IA aún mantienen una mentalidad de cara al consumidor: crear un modelo superior → presentarlo en una interfaz de chat → adquirir usuarios directamente.

Este modelo es efectivo a corto plazo, pero difícilmente puede sostenerse a largo plazo. Porque en mercados de alta fricción, los usuarios no aceptan directamente nuevas tecnologías, sino que aceptan la tecnología a través de personas de confianza.

La expansión global de YouTube no fue persuadiendo uno por uno a miles de millones de usuarios, sino empoderando a aquellos que ya habían ganado la confianza de la audiencia. Esta es la verdadera esencia de la infraestructura invisible: no posees la relación con los usuarios, proporcionas soporte para la relación con los usuarios. Y a nivel de escalabilidad, este modelo tiene una muralla defensiva más fuerte.

De chat a agentes inteligentes: empoderando intermediarios de confianza

Este es el punto clave de la transición de la interfaz de chat a los agentes inteligentes. El chat es una herramienta dirigida a individuos, mientras que los agentes son palancas para los intermediarios. Si aplicamos la idea del ejecutivo de Anthropic, Amie Wolla, de “crear productos para las personas más cansadas”, entonces en muchos mercados, estas personas son los transformadores de confianza:

  • Educadores que adaptan conceptos extranjeros

  • Emprendedores que enfrentan sistemas burocráticos locales

  • Líderes comunitarios que manejan la sobrecarga de información

La forma de ganar es resolver el retraso de confianza que enfrentan: es decir, la brecha entre la capacidad inteligente global y los escenarios prácticos locales. Esto requiere un sistema de soporte de agentes inteligentes que funcione de manera efectiva:

  • Para educadores: Sora / GPT-5.2 reescribiendo el currículo — reemplazando la analogía del fútbol americano con el cricket, manteniendo el significado central mientras se ajusta a la cultura local.

  • Para emprendedores individuales: los agentes no solo pueden interpretar formularios fiscales de Singapur, sino que también pueden completar y enviar a través de API locales.

  • Para líderes comunitarios: agregar funciones de memoria contextual a WhatsApp — extrayendo elementos de acción estructurados de diez mil mensajes, manteniendo información útil y manteniendo las normas comunitarias.

El núcleo de la viabilidad del modelo: resolver el retraso de confianza de la última milla

Para entender por qué este modelo puede escalar, es necesario comprender el retraso de confianza. En muchas partes del mundo, el cuello de botella no es el acceso a la tecnología, sino el tiempo, riesgo e incertidumbre requeridos para construir confianza. La difusión de la tecnología no depende de la publicidad, sino de la validación.

El error que cometen la mayoría de las empresas de IA es intentar pagar el impuesto de confianza a través de marca, distribución o perfeccionamiento del producto, pero la confianza no puede escalarse de esta manera.

El camino más rápido es externalizar el impuesto de confianza a aquellos que ya han asumido este costo: creadores, educadores y operadores enraizados localmente. Ellos ya han hecho pruebas para la audiencia, entendiendo qué funciona, qué falla y qué es realmente importante en el escenario local, asumiendo el riesgo para la audiencia.

Al empoderar a estos intermediarios de confianza:

  • El costo de adquisición de usuarios se acerca a cero: la distribución se basa en redes de confianza existentes;

  • El valor del ciclo de vida del usuario se incrementa: las funciones prácticas se ajustan a las necesidades locales, en lugar de ser generalizadas;

  • La velocidad de difusión se acelera: la confianza se hereda directamente, sin necesidad de acumular desde cero.

Las empresas obtendrán un equipo de ventas global sin costo cuya credibilidad, eficiencia y profundidad de enraizamiento son mucho mayores que cualquier estrategia de promoción centralizada. Ya no estás creando productos para usuarios, sino proporcionando palancas a personas en las que los usuarios ya confían.

Este es el camino de la expansión global de YouTube, y también es la única manera de que la inteligencia artificial cruce las barreras soberanas.

Sistemas de datos soberanos: la muralla geopolítica

El optimismo tecnológico promovido por Marc Andreessen no desemboca en la confrontación con la regulación, sino en convertir la regulación en un producto. Competir con DeepSeek de China y Kimi no se ganará ignorando fronteras, sino controlando los depósitos de datos.

¿Qué es un depósito de datos soberano? Es una instancia de localización prioritaria del modelo que opera dentro de la infraestructura digital pública (DPI) de un país.

  • Muralla geopolítica: al permitir que países como India y Brasil tengan soberanía digital sobre modelos, pesos y datos, estamos revirtiendo fundamentalmente el control. Las capacidades inteligentes ya no son mediadas por plataformas extranjeras, sino que se gestionan autónomamente dentro de las fronteras nacionales. Esto no es simplemente “bloquear” a competidores externos, sino aumentar significativamente su costo de influencia, disminuir la dependencia externa y reducir la exposición al control, extracción de datos o intervenciones unilaterales.

  • Anclajes de identidad: vinculando profundamente los modelos con la cultura local y la realidad legal, construyendo una muralla que la inteligencia artificial general no puede cruzar.

  • Ciclo de retroalimentación: resolver problemas de detalle extremadamente localizados como los permisos fiscales en Malasia no es una distracción, sino un acelerador para el modelo. Esto proporciona flexibilidad cultural al modelo base, manteniendo siempre un nivel de inteligencia de clase mundial.

Aquí existe una contradicción real. La visión de la inteligencia artificial es lograr inteligencia general, pero la tendencia hacia la soberanía está empujando todo el ecosistema hacia la fragmentación. Si cada país construye su propia pila tecnológica, enfrentaremos riesgos de incompatibilidad de sistemas, estándares de seguridad dispares y duplicación de recursos. El desafío para los laboratorios de vanguardia no es solo escalar la inteligencia, sino diseñar una arquitectura que pueda lograr el control local sin debilitar las ventajas de colaboración global.

Tres cambios estructurales en la era de los intermediarios

1. La distribución de la inteligencia artificial entrará en redes de confianza existentes

La inteligencia artificial no escalará a través de aplicaciones independientes, sino que se incorporará a plataformas de mensajería instantánea, flujos de trabajo de creadores, sistemas educativos e infraestructura de pequeñas y medianas empresas — porque la confianza ya se ha establecido en estos escenarios. Sin efectos de red fuertes, la distribución debe apoyarse en redes interpersonales existentes.

2. La infraestructura de IA a nivel nacional se convertirá en un estándar

Los gobiernos de todo el mundo exigirán cada vez más que los sistemas de inteligencia crítica se desplieguen con modelos localizados, construyan capacidades soberanas o acepten revisiones regulatorias, lo que acelerará la implementación de la arquitectura de depósitos de datos soberanos.

3. La economía de creadores se convertirá en una economía de agentes inteligentes

Los creadores ya no solo producirán contenido, sino que desplegarán agentes para llevar a cabo tareas reales para sus comunidades. Estos agentes se convertirán en extensiones de individuos confiables, heredando su reputación y transmitiendo capacidades inteligentes a través de redes de confianza.

Por supuesto, también existe la posibilidad de un futuro alternativo: la aparición de un asistente que ocupe una posición dominante, profundamente integrado en sistemas operativos, navegadores y dispositivos, estableciendo directamente la conexión entre usuarios y modelos, eludiendo completamente a los intermediarios. Si esto sucediera, la capa de confianza estaría directamente incorporada en este asistente.

Pero la experiencia histórica apunta hacia un patrón más diversificado. Incluso las plataformas más dominantes — desde sistemas operativos móviles hasta redes sociales — finalmente crecieron a través de ecosistemas. La inteligencia puede ser universal, pero la confianza siempre es localizada. Sin importar qué arquitectura finalmente prevalezca, el desafío central no cambiará: la difusión de la inteligencia artificial ya no es principalmente un problema de modelo, sino de distribución y confianza.

Conclusión: los mercados nicho son el verdadero mercado global

El mayor error de la era de los exploradores fue creer que la inteligencia es un producto estandarizado: una única API global que se comporta de la misma manera en una sala de conferencias en Manhattan y en un pueblo en Karnataka. Las barreras soberanas revelan una verdad más dura: la inteligencia puede ser universal, pero su difusión no lo es.

Los estados y las instituciones locales no quieren un sistema externo de caja negra, quieren control, capacidad de adaptación a escenarios y el derecho de moldear la inteligencia dentro de sus propias fronteras. No quieren aplicaciones listas para usar, sino canales de base: infraestructura, sistemas de seguridad y capacidad de cómputo que permitan a sus ciudadanos construir de manera autónoma.

La lógica de crecimiento de 2026 ya no es buscar una experiencia de usuario universal, sino flexibilidad del producto: permitir que la inteligencia se adapte a los escenarios locales, regulaciones y culturas sin perder la capacidad central. Si seguimos persiguiendo directamente a los consumidores globales, siempre seremos una capa externa — frágil, reemplazable y propensa a repetir los choques que viví en YouTube.

Pero cuando nos dirigimos a empoderar intermediarios, el modelo cambiará radicalmente: de la interfaz de chat a los agentes inteligentes, de persuadir a los usuarios a empoderar a los intermediarios de confianza, de luchar contra la regulación a convertir la regulación en una muralla.

La escalabilidad de la inteligencia artificial no depende de los modelos, sino de la confianza.

El ganador de la carrera de inteligencia artificial no será la empresa con el modelo más inteligente, sino la que mejor pueda potenciar a los héroes locales — maestros, contadores, líderes comunitarios — multiplicando su capacidad por diez. Porque, al final, la inteligencia se transmite en el sistema, y la difusión ocurre entre la gente.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado