Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
a16z : Pourquoi la prochaine décennie de milliards d'utilisateurs d'IA accédera via des réseaux de confiance
Auteur : Sakina Arsiwala, chercheuse chez a16z ; Source : a16z crypto ; Traduction : Shaw
Les enseignements de YouTube : le contenu est une arme géopolitique
Il y a plusieurs années, j’ai été responsable du produit de recherche internationale chez Google, puis j’ai dirigé l’expansion internationale de YouTube ; en seulement 14 mois, j’ai lancé le produit dans 21 pays. Je ne me suis pas contentée de localiser le produit : j’ai construit des partenariats de contenu locaux, en cherchant des solutions dans un environnement rempli de mines juridiques, politiques et d’accès au marché. Récemment, j’ai également été responsable de la gestion de la santé communautaire (confiance et sécurité) sur Twitch. Au cours de ma carrière, j’ai aussi fondé deux startups.
Aujourd’hui, dans le domaine de l’intelligence artificielle (IA), il existe une ressemblance frappante avec la phase de croissance de Google et YouTube à l’époque. Mon parcours m’a permis de réaliser une vérité essentielle : la mondialisation n’est pas une simple fonctionnalité produit, mais un véritable bras de fer géopolitique. La leçon la plus profonde est que la promotion des canaux n’a jamais été qu’un problème technique. La croissance dépend de partenaires locaux, d’interlocuteurs culturels et de leaders d’opinion communautaires dignes de confiance, qui construisent le pont entre plateformes mondiales et utilisateurs locaux.
J’ai vécu de près l’affaire de blocage des droits d’auteur par la GEMA en Allemagne : une agence de gestion des droits musicaux a presque exclu tout un pays du plan de promotion pan-européen de YouTube. J’ai été témoin du scandale autour du mandat d’arrestation pour offense à la Thaïlande : en tant que responsable des affaires internationales de YouTube, j’étais exposée au risque d’être arrêtée pour des contenus jugés insultants envers le roi de Thaïlande, et je ne pouvais même pas transiter par le pays. J’ai vu le Pakistan couper Internet national pour interdire une seule vidéo. Je me souviens aussi qu’en raison d’un conflit entre l’algorithme mondial et les interdits religieux locaux, notre bureau en Inde a été victime d’une attaque physique.
Ce que nous devons réellement affronter n’a jamais été seulement une question de politique ou d’infrastructures, mais plutôt une barrière de confiance.
Dans chaque marché, quelqu’un doit d’abord supporter le coût, clarifier quels contenus sont sûrs, acceptables et utiles, avant que les utilisateurs ne s’y joignent. Ce coût s’accumule sans cesse, et finit par créer une taxe de confiance : d’abord supportée par quelques groupes, puis partagée par tous.
Aujourd’hui, cette même contradiction se reproduit dans le domaine de l’IA, mais dans un contexte plus sévère, avec une évolution plus rapide et un impact plus visible. Le gouvernement fédéral américain et Anthropic sont récemment entrés dans une impasse, suscitant un vif débat public ; de leur côté, OpenAI fait face à une surveillance accrue en raison de ses collaborations avec le secteur public. Nous assistons à une transformation : l’acceptation par les utilisateurs ne dépend plus uniquement de l’utilité, mais l’influence idéologique s’approfondit. Dans cet environnement, la confiance est extrêmement fragile ; une chute apparemment mineure peut entraîner une perte massive et rapide d’utilisateurs.
Google investit massivement dans sa stratégie de confiance profonde, en s’appuyant sur la familiarité des utilisateurs avec Workspace et l’écosystème de recherche pour ouvrir les marchés ; mais la configuration mondiale se fracture de plus en plus. Les lignes rouges réglementaires de l’Union européenne, la compétition acharnée pour le développement de l’IA en Chine, et un nationalisme IA de plus en plus virulent maintiennent le monde entier en état d’alerte.
L’enseignement de 2026 est clair : la confiance institutionnelle et la reconnaissance culturelle sont désormais indissociables du produit lui-même. Sans la confiance comme fondation, il est impossible de construire un système d’exploitation intelligent.
C’est cela, la barrière de souveraineté — une limite structurelle où l’IA mondiale entre en collision avec la gouvernance locale. Et, du point de vue produit, elle se manifeste sous une forme encore plus directe : la barrière de confiance.
Toute expansion des systèmes d’IA mondiaux finira par buter contre ce mur. À ce point critique, l’acceptation des utilisateurs ne dépend plus uniquement des capacités techniques, mais de leur confiance dans le contexte propre à chaque acteur — utilisateurs, institutions, gouvernements.
Internet a été sans frontières. L’intelligence artificielle ne le sera pas.
La fin de l’ère des explorateurs
Les premiers un milliard d’utilisateurs d’IA étaient des explorateurs et des optimistes technologiques. Mais l’ère des explorateurs est désormais révolue. Au cours des trois dernières années, nous avons vécu à l’époque de l’ingénierie de prompts et de la “numérique alchimie” ; les gens ont ouvert ChatGPT, Claude et d’autres applications populaires, comme s’ils visitaient un sanctuaire numérique, pour voir de leurs propres yeux la magie de l’intelligence générative. À cette époque, le seul indicateur important était la performance du modèle sur les benchmarks : qui domine les dernières évaluations ? Qui a le plus grand nombre de paramètres ?
Mais en entrant en 2026, la flamme de l’ère des explorateurs s’éteint. Nous ne créons plus des jouets pour les curieux, mais nous nous tournons vers des systèmes d’exploitation intelligents — ces canaux invisibles et omniprésents, qui alimentent le quotidien des entrepreneurs individuels à São Paulo, au Brésil, et des travailleurs de la santé communautaire à Jakarta, en Indonésie.
Ces utilisateurs ne sont pas des explorateurs : ce sont des utilisateurs pragmatiques. Ils ne veulent pas dialoguer avec des “fantômes” dans la machine ; ils veulent un outil qui les aide à surmonter les obstacles de leur vie réelle. C’est le vrai moment de franchir le cap pour atteindre la prochaine vague d’un milliard d’utilisateurs. Et c’est précisément dans cette zone périphérique encore peu exploitée que le rêve global d’API, cher à la Silicon Valley, rencontre la réalité la plus dure de notre époque : la barrière de souveraineté.
Le changement central réside dans ceci : la diffusion de l’IA n’est plus principalement une question de capacité des modèles, mais de diffusion et de confiance. Les laboratoires de pointe continueront d’améliorer la performance des modèles, mais l’arrivée de la prochaine vague d’un milliard d’utilisateurs ne se fera pas parce qu’un modèle obtient un meilleur score dans les benchmarks ; elle se produira parce que l’IA atteindra ces utilisateurs via des institutions, des créateurs et des communautés qu’ils ont déjà appris à croire.
Réalité 2026 : l’IA devient une question d’infrastructure nationale
En 2026, le défi principal du secteur n’est plus d’améliorer la performance des modèles, mais de leur permettre d’obtenir une autorisation d’accès. La barrière de souveraineté est la frontière où l’intelligence générale rencontre l’identité nationale. À l’échelle mondiale, cette barrière commence déjà à se dessiner : exigences de localisation des données, plans nationaux de calcul IA, et projets de modèles portés par des gouvernements comme ceux de l’Inde, des Émirats arabes unis, de l’Europe, etc. Les premières politiques d’infrastructure cloud évoluent rapidement vers des politiques de souveraineté intelligente. Dans ce cadre, les pays refusent de devenir des “colonies de données”, et exigent que les systèmes intelligents destinés à leurs citoyens fonctionnent dans leurs propres entrepôts de données souverains, en transmettant leur culture locale et en respectant leurs frontières.
Lorsque vous voyez les PDG de Google (Sundar Pichai), d’OpenAI (Sam Altman), d’Anthropic (Dario Amodei) et de DeepMind (Demis Hassabis) monter sur scène lors du Sommet de l’influence de l’IA en Inde 2026, aux côtés du Premier ministre indien Modi, vous assistez à une manifestation concrète de la barrière de souveraineté. La vision M.A.N.A.V. proposée par Modi (Éthique, Responsabilité, Souveraineté, IA accessible à tous, Systèmes dignes de confiance) envoie un signal clair : si les laboratoires de pointe tentent de s’implanter directement auprès des consommateurs, ils seront éliminés par la régulation. Et la confiance est la seule monnaie permettant de franchir ces frontières.
Le dilemme du ralentissement des effets de réseau et pourquoi il impose une toute nouvelle stratégie
Contrairement aux plateformes sociales, où chaque nouvel utilisateur augmente la valeur pour tous, la valeur de l’IA repose largement sur la localisation. Mon premier millier de prompts ne rendra pas le système plus utile pour vous. La “roue de la donnée” peut optimiser le modèle, mais l’expérience utilisateur reste personnelle, pas sociale. L’IA est un outil privé, capable d’évoquer des émotions, mais son cœur reste pratique.
Cela crée un problème structurel : l’IA ne peut pas s’appuyer sur l’effet de réseau social à capitalisation, qui a permis à la génération précédente de plateformes de décoller. En l’absence de graphe social natif, le secteur doit se retrouver dans une boucle à forte consommation, en poursuivant sans cesse les premiers utilisateurs, les joueurs engagés et les élites technologiques. Cette stratégie a fonctionné à l’époque des explorateurs, mais elle ne peut pas atteindre à l’échelle les deux milliards d’utilisateurs suivants.
Le point crucial est que ce modèle échouera complètement face à la barrière de souveraineté. Parce que lorsque les effets de réseau sont faibles, la confiance ne se forme pas spontanément : elle doit être introduite de l’extérieur.
Transformation : passer des effets de réseau aux effets de confiance
Si l’IA ne peut pas s’appuyer sur les effets de réseau social pour se diffuser, elle doit compter sur une autre force : les réseaux de confiance. C’est la transformation décisive :
De l’acquisition d’utilisateurs à l’autonomisation des intermédiaires
YouTube a pu se développer à grande échelle parce qu’il s’appuyait sur des réseaux humains de confiance déjà existants. L’IA doit faire pareil. Plutôt que d’essayer d’établir une relation directe avec des milliards d’utilisateurs, la stratégie gagnante consiste à :
Autonomiser ceux qui ont déjà des relations avec les utilisateurs ;
Exploiter la confiance qu’ils ont déjà accumulée ;
Distribuer des capacités intelligentes via ces canaux.
Pourquoi c’est crucial
Dans un monde façonné par la barrière de souveraineté :
Les canaux de distribution sont limités ;
Le modèle de contact direct avec les utilisateurs est fragile ;
La confiance est localisée, pas mondialisée.
Sans effets de réseau forts, l’IA ne peut pas atteindre l’échelle par la force brute ; elle doit s’appuyer sur la confiance pour s’insérer. L’IA ne possède pas d’effets de réseau, mais des effets de confiance.
La solution : l’ère des intermédiaires arrive
Comment YouTube a-t-il réellement réussi à s’imposer sur les marchés internationaux ? Ce n’est pas grâce à un lecteur plus performant, ni à une simple localisation des textes de l’interface. La clé du succès, c’est de devenir la plateforme privilégiée des populations déjà porteuses de confiance locale. Sur chaque marché, le point de départ de l’acceptation des utilisateurs n’est pas YouTube lui-même, mais un ancrage d’identité — ces individus et communautés qui ont déjà la maîtrise du discours culturel :
Les pages de fans de Bollywood rassemblent des extraits rares de Shahrukh Khan pour la communauté de la diaspora à Dubaï
Les passionnés d’anime aux États-Unis construisent un écosystème de contenus approfondis que les médias grand public n’ont jamais couverts
Des artistes locaux, des enseignants et des créateurs de montages transforment des contenus mondiaux en formats adaptés à la perception culturelle locale
Ces créateurs ne se contentent pas de télécharger des vidéos : ils interprètent Internet pour leur audience, agissent comme des intermédiaires de confiance et construisent un pont entre plateformes étrangères et utilisateurs locaux. Le succès de YouTube repose sur le fait d’être une infrastructure invisible qui soutient ces ancrages d’identité.
La logique négligée : le modèle “face au consommateur” bute sur la barrière de souveraineté
Aujourd’hui, la majorité des entreprises d’IA adoptent encore une approche “face au consommateur” : développer un meilleur modèle → le présenter via une interface de chat → attirer directement les utilisateurs.
Ce modèle fonctionne à court terme, mais il est voué à l’échec à long terme. Parce que dans les marchés à forte friction, les utilisateurs n’adoptent pas une nouvelle technologie directement : ils adoptent la technologie via des personnes de confiance.
La mondialisation de YouTube ne repose pas sur la persuasion unitaire de milliards d’utilisateurs ; elle repose sur l’autonomisation de ceux qui ont déjà gagné la confiance du public. C’est cela, la véritable infrastructure invisible : vous ne possédez pas la relation avec les utilisateurs ; vous soutenez cette relation. Et à l’échelle, ce modèle dispose d’un avantage défensif plus solide.
Du chat aux agents : autonomiser les intermédiaires de confiance
C’est précisément le cœur du passage de l’interface de chat aux agents. Le chat est un outil individuel, tandis que les agents offrent un levier pour les intermédiaires. En reprenant la philosophie d’Anthropic, Amis Waller — “concevoir un produit pour les personnes épuisées” — dans de nombreux marchés, ces personnes sont justement des convertisseurs de confiance :
Des éducateurs qui adaptent des idées venues de l’étranger
Des entrepreneurs confrontés aux structures bureaucratiques locales
Des leaders communautaires gérant la surcharge d’informations
La clé du succès est de résoudre leur délai de confiance — c’est-à-dire l’écart entre la capacité mondiale de l’IA et leur usage pratique local. Cela nécessite un système solide d’infrastructure de support pour les agents, véritablement applicable :
Pour les éducateurs : Sora / GPT-5.2 réécrivent et remodèlent les cours — en remplaçant l’analogie du football américain par celle du cricket, tout en conservant le sens central et en s’alignant sur la culture locale.
Pour les entrepreneurs individuels : les agents peuvent non seulement interpréter les formulaires fiscaux de Singapour, mais aussi les remplir et les soumettre via des API locales.
Pour les leaders communautaires : ajouter des fonctions de mémoire contextuelle à WhatsApp — extraire des “plans d’action” structurés à partir de 10 000 messages, conserver les informations utiles et maintenir les normes communautaires.
La clé d’un modèle viable : résoudre le délai de confiance du “dernier kilomètre”
Pour comprendre pourquoi ce modèle peut se diffuser à grande échelle, il faut saisir le concept de délai de confiance. Dans de nombreuses régions du monde, le principal obstacle n’est pas l’accès aux canaux techniques, mais le temps, le risque et l’incertitude liés à l’établissement de la confiance. La diffusion technologique ne repose pas sur la publicité, mais sur la recommandation.
La principale erreur des entreprises d’IA est d’essayer de concentrer la “taxe de confiance” via la marque, la distribution ou le polissage du produit ; mais la confiance ne peut pas être mise à l’échelle de cette manière.
Le chemin le plus rapide consiste à externaliser cette taxe de confiance à ceux qui ont déjà supporté ce coût — des créateurs, des éducateurs et des opérateurs locaux. Ils ont déjà expérimenté, échoué et réussi auprès de leur audience, et ont compris ce qui fonctionne, ce qui échoue, et ce qui est vraiment important dans leur contexte local ; ils prennent le risque à leur place.
En autonomisant ces intermédiaires de confiance :
Le coût d’acquisition des utilisateurs tend vers zéro : la distribution repose sur des réseaux de confiance existants ;
La valeur à vie des utilisateurs augmente : des fonctionnalités utiles adaptées aux besoins locaux, plutôt que standardisées ;
La vitesse de diffusion s’accélère : la confiance se transmet directement, sans repartir de zéro.
Les entreprises bénéficieront ainsi, de façon quasi “gratuite”, d’une équipe de vente mondiale sans coûts de recrutement, dont la crédibilité, l’efficacité et la profondeur d’ancrage surpassent toutes les stratégies de promotion centralisées. Vous ne construisez plus un produit pour les utilisateurs ; vous donnez un levier à ceux en qui ils ont déjà confiance.
C’est précisément la voie de la mondialisation de YouTube, et c’est aussi la seule manière pour l’IA de franchir la barrière de souveraineté.
Entrepôt de données souverain : une frontière géopolitique
L’optimisme technologique prôné par Marc Andreessen ne consiste pas à défier la régulation, mais à la transformer en produit. Face à la compétition avec la Chine — DeepSeek, l’aspect caché de la Lune (Kimi) — la victoire ne repose pas sur l’ignorance des frontières, mais sur la maîtrise de l’entrepôt de données.
Qu’est-ce qu’un entrepôt de données souverain ? C’est une instance de localisation locale, prioritaire, où résident le modèle, ses poids et ses données, dans le cadre des infrastructures numériques publiques (DPI) d’un pays.
Fossé géopolitique : en conférant à des pays comme l’Inde, le Brésil, etc., une souveraineté numérique sur les modèles, les poids et les données, nous rééquilibrons fondamentalement la répartition du contrôle. Les capacités intelligentes ne sont plus médiatisées par des plateformes étrangères, mais gouvernées de façon autonome à l’intérieur des frontières. Il ne s’agit pas d’un “blocage” direct des adversaires extérieurs, mais d’une augmentation significative du coût de leur influence, d’une réduction de leur dépendance extérieure, et d’une limitation des risques de contrôle, d’extraction de données ou d’interventions unilatérales.
Ancrages d’identité : lier profondément le modèle à la culture locale et aux réalités juridiques, afin de construire une barrière infranchissable pour l’IA générale.
Boucles de rétroaction : résoudre des détails hautement localisés, comme les licences fiscales en Malaisie, n’est pas une distraction ; c’est un accélérateur de modèle. Cela confère au modèle une résilience culturelle, lui permettant de rester au sommet mondial de l’intelligence.
Il existe de véritables contradictions dans cette vision. La promesse de l’IA est d’atteindre une intelligence générale, mais la tendance à la souverainisation pousse tout l’écosystème vers la fragmentation. Si chaque pays construit sa propre pile technologique, nous risquons des systèmes incompatibles, des normes de sécurité hétérogènes, et une duplication des efforts. Le défi pour les laboratoires de pointe n’est pas seulement d’accroître l’échelle de l’intelligence, mais de concevoir une architecture permettant à la fois la gouvernance locale et la conservation des avantages de la collaboration mondiale.
Trois transformations structurelles de l’ère des intermédiaires
1. La distribution de l’IA s’appuiera sur les réseaux de confiance existants
L’IA ne se diffusera pas uniquement par des applications autonomes, mais s’intégrera dans des plateformes de messagerie instantanée, des flux de travail de créateurs, des systèmes éducatifs et des infrastructures pour petites et micro-entreprises — car la confiance est déjà établie dans ces contextes. En l’absence d’effets de réseau forts, la distribution doit s’appuyer sur les réseaux relationnels humains existants.
2. L’infrastructure nationale d’IA deviendra la norme
Les gouvernements exigeront de plus en plus que les systèmes d’IA critiques déploient des modèles localisés, développent des capacités de calcul souverain ou subissent des contrôles réglementaires ; cela accélérera la mise en place d’une architecture d’entrepôt de données souverain.
3. L’économie des créateurs évoluera vers une économie d’agents
Les créateurs ne se contenteront plus de produire du contenu : ils déploieront des agents pour exécuter de véritables tâches dans leur communauté. Ces agents deviendront une extension digne de confiance, héritant de leur crédibilité, et transmettant des capacités intelligentes via des réseaux de confiance.
Bien sûr, une autre possibilité d’avenir existe : l’émergence d’un assistant dominant, profondément intégré au système d’exploitation, au navigateur et aux appareils, établissant une connexion directe entre utilisateurs et modèles, en contournant totalement les intermédiaires. Si cela se produit, la couche de confiance sera intégrée directement dans cet assistant.
Mais l’histoire montre un paysage plus diversifié. Même pour les plateformes les plus dominantes — qu’il s’agisse des systèmes d’exploitation mobiles ou des réseaux sociaux — la croissance repose toujours sur l’écosystème. L’intelligence peut être universelle, mais la confiance reste toujours localisée. Quelle que soit l’architecture qui l’emportera, le défi central ne changera pas : la diffusion de l’IA n’est plus une simple question de modèle, mais de distribution et de confiance.
Conclusion : les marchés de niche sont de véritables marchés mondiaux
La plus grande erreur de l’ère des explorateurs a été de croire que l’intelligence est un produit standardisé — une API globale unique, qui fonctionne de la même manière dans une salle de réunion à Manhattan ou dans un village du Karnataka. La barrière de souveraineté révèle une vérité plus cruelle : l’intelligence peut être universelle, mais sa diffusion ne l’est pas.
Les institutions nationales et locales ne veulent pas d’un système externe “boîte noire” ; elles veulent le contrôle, la capacité d’adapter l’IA à leurs scénarios, et le droit de façonner l’intelligence dans leurs frontières. Elles ne veulent pas d’applications prêtes à l’emploi, mais des canaux fondamentaux — une infrastructure, des systèmes de sécurité et de calcul, pour que leurs citoyens puissent construire de façon autonome.
La logique de croissance en 2026 ne consiste plus à rechercher une expérience utilisateur universelle, mais à assurer la résilience du produit — permettre à l’IA de s’adapter aux contextes locaux, à la régulation et à la culture, sans en sacrifier les capacités essentielles. Si nous continuons à poursuivre directement les consommateurs mondiaux, nous ne serons qu’une couche extérieure — fragile, remplaçable — et nous répéterons les chocs que j’ai vécus chez YouTube.
Mais en passant par l’autonomisation des intermédiaires, le modèle change radicalement : passer de l’interface de chat aux agents, de la persuasion des utilisateurs à l’autonomisation des intermédiaires de confiance, et de la confrontation à la régulation à sa transformation en un avantage stratégique.
La mise à l’échelle de l’IA ne repose pas sur le modèle, mais sur la confiance.
Les gagnants de la compétition IA ne seront pas ceux qui possèdent le modèle le plus avancé, mais ceux qui parviennent à multiplier par dix la capacité des héros locaux — enseignants, comptables, leaders communautaires. Car, en fin de compte, l’intelligence se transmet dans les systèmes, mais sa diffusion se produit dans la population.