Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
a16z : Pourquoi la prochaine décennie de milliards d'utilisateurs d'IA accédera via des réseaux de confiance
作者:Sakina Arsiwala,a16z研究员;来源:a16z crypto;编译:Shaw 金色财经
YouTube的启示:内容是一种地缘政治武器
Il y a plusieurs années, j’étais responsable des produits de recherche internationale chez Google, puis j’ai dirigé l’expansion internationale de YouTube, déployant le produit dans 21 pays en seulement 14 mois. Ce que j’ai fait n’était pas seulement de la localisation de produit, mais aussi de construire des partenariats de contenu locaux, cherchant des moyens de naviguer dans un champ de mines de lois, de politiques et d’accès au marché. Récemment, j’ai également géré la santé communautaire (confiance et sécurité) de Twitch. Au cours de ma carrière, j’ai également fondé deux startups.
Aujourd’hui, le domaine de l’intelligence artificielle (IA) présente des similitudes étonnantes avec la phase de croissance précoce de Google et YouTube. Ma carrière m’a fait réaliser un fait : la mondialisation n’est pas une fonctionnalité produit, mais un jeu géopolitique. La leçon la plus profonde est que la promotion des canaux n’est jamais seulement une question technique. La croissance dépend de partenaires locaux, de communicateurs culturels et d’influenceurs communautaires de confiance, qui construisent des ponts entre les plateformes mondiales et les utilisateurs locaux.
J’ai vécu l’incident de blocus des droits d’auteur GEMA en Allemagne : une agence de droits musicaux a presque exclu tout un pays du programme de promotion paneuropéenne de YouTube. J’ai connu le scandale des mandats d’arrestation pour lèse-majesté en Thaïlande : en tant que responsable des relations extérieures de YouTube, j’ai été confronté à un risque d’arrestation en raison de contenus jugés insultants envers le roi de Thaïlande sur la plateforme, au point de ne pas pouvoir traverser le pays. J’ai été témoin de la coupure d’Internet à l’échelle nationale au Pakistan pour bloquer une vidéo. Je me souviens également que, en raison d’un conflit entre les algorithmes mondiaux et les tabous religieux locaux, nos bureaux en Inde ont été attaqués.
Ce que nous devons vraiment affronter n’est jamais seulement une question de politique ou d’infrastructure, mais plutôt des barrières de confiance.
Dans chaque marché, quelqu’un doit d’abord supporter le coût de clarifier quels contenus sont sûrs, acceptables et précieux, avant que les utilisateurs ne s’engagent. Ce coût s’accumule continuellement, formant avec le temps une sorte de taxe de confiance : supportée par un petit groupe au départ, puis partagée par tous.
Aujourd’hui, la même contradiction se reproduit dans le domaine de l’intelligence artificielle, mais la situation est plus grave, l’évolution plus rapide et l’impact plus visible. Le gouvernement fédéral américain et Anthropic sont récemment tombés dans une impasse, suscitant un vif débat public ; OpenAI fait face à de plus en plus de scrutins en raison de ses relations avec le secteur public. Nous assistons à un changement : l’acceptation par les utilisateurs ne dépend plus seulement de l’utilité, mais l’influence idéologique s’approfondit. Dans ce contexte, la confiance est très fragile ; un effondrement de confiance, même apparemment mineur, peut entraîner une perte massive et rapide d’utilisateurs.
Google double ses investissements dans sa stratégie de confiance profonde, utilisant la familiarité des utilisateurs avec l’écosystème actuel de Workspace et de recherche pour pénétrer le marché, mais le paysage mondial devient de plus en plus fragmenté. Les réglementations strictes de l’UE, la compétition intense de l’IA en Chine, et le nationalisme croissant en matière d’IA maintiennent le monde en état d’alerte.
Les enseignements de 2026 sont évidents : la confiance institutionnelle et la reconnaissance culturelle sont désormais indissociables du produit lui-même. Sans confiance comme fondation, il est impossible de construire un système d’exploitation intelligent.
C’est ce qu’on appelle les barrières souveraines - des frontières structurelles où l’intelligence artificielle mondiale rencontre le contrôle local. Et d’un point de vue produit, cela se manifeste sous une forme plus directe : la barrière de confiance.
Toutes les expansions des systèmes d’intelligence artificielle mondiaux finiront par se heurter à ce mur. À ce point critique, l’acceptation par les utilisateurs ne dépend plus des capacités techniques, mais de la confiance des utilisateurs, des institutions et des gouvernements dans leur propre contexte.
Internet était autrefois sans frontières. L’intelligence artificielle ne le sera pas.
Exploration de la fin de l’ère des explorateurs
Les premiers milliards d’utilisateurs de l’intelligence artificielle étaient des explorateurs et des optimistes technologiques. Mais l’ère des explorateurs est désormais révolue. Au cours des trois dernières années, nous avons vécu à l’ère de l’ingénierie des prompts et de l’alchimie numérique, où les gens ouvrent des applications populaires comme ChatGPT et Claude, comme s’ils se rendaient dans un sanctuaire numérique, témoignant des merveilles de l’intelligence générative. À cette époque, le seul indicateur qui compte est la capacité du modèle : qui est en tête des derniers tests de référence ? Qui a le plus de paramètres ?
Mais en 2026, le feu de camp de l’ère des explorateurs s’éteint. Nous ne créons plus des jouets pour les curieux, mais nous nous tournons vers des systèmes d’exploitation intelligents - ces canaux sous-jacents invisibles qui alimentent le fonctionnement quotidien des entrepreneurs individuels à São Paulo, au Brésil, et des travailleurs médicaux communautaires à Jakarta, en Indonésie.
Ces utilisateurs ne sont pas des explorateurs, mais des demandeurs pratiques. Ils ne veulent pas dialoguer avec les “fantômes” dans la machine, ils veulent un outil qui les aide à surmonter les obstacles du quotidien. C’est précisément le moment de franchir le gouffre pour attirer le prochain milliard d’utilisateurs. C’est également à cette frontière encore inexploitée que le rêve mondial d’API de la Silicon Valley se heurte à la réalité la plus dure de cette époque : les barrières souveraines.
Le changement central est le suivant : la démocratisation de l’intelligence artificielle n’est plus principalement une question de capacité des modèles, mais dediffusion et de confiance. Les laboratoires de pointe continueront d’améliorer les performances des modèles, mais l’arrivée du prochain milliard d’utilisateurs ne sera pas due à un modèle obtenant un meilleur score dans un test de référence, mais parce que l’intelligence artificielle les atteindra par le biais d’institutions, de créateurs et de communautés auxquels ils font déjà confiance.
La réalité de 2026 : l’IA devient un sujet d’infrastructure nationale
En 2026, le défi central de l’industrie ne sera plus de rendre les modèles plus intelligents, mais de rendre les modèles aptes à l’accès. Les barrières souveraines sont la frontière où l’intelligence générale rencontre l’identité nationale. À l’échelle mondiale, cette barrière commence à se dessiner : exigences de localisation des données, plans nationaux de puissance de calcul en IA, et projets de modèles dirigés par des gouvernements aux États-Unis, en Inde, aux Émirats arabes unis et en Europe. Les politiques initiales sur l’infrastructure cloud évoluent rapidement vers des politiques de souveraineté intelligente. Dans ce cadre, les nations refusent de devenir des “colonies de données”, exigeant que les systèmes intelligents servant leurs citoyens fonctionnent dans leurs propres entrepôts de données souverains, transmettant la culture locale et respectant les frontières nationales.
Lorsque vous voyez les PDG de Google (Sundar Pichai), OpenAI (Sam Altman), Anthropic (Dario Amodei) et DeepMind (Demis Hassabis) apparaître aux côtés du Premier ministre indien Modi lors du sommet de l’impact de l’IA en Inde en 2026, vous assistez à la véritable manifestation des barrières souveraines. La vision M.A.N.A.V. proposée par le Premier ministre Modi (système éthique, gouvernance responsable, souveraineté nationale, IA inclusive, systèmes fiables) envoie un message clair : si les laboratoires de pointe essaient de s’implanter directement auprès des consommateurs, ils finiront par être éliminés par la réglementation. Et la confiance est la seule monnaie d’échange pour franchir ces frontières.
La diminution des effets de réseau et pourquoi cela impose une nouvelle stratégie
Contrairement aux plateformes sociales où chaque nouvel utilisateur peut accroître la valeur pour tous les autres utilisateurs, la valeur de l’intelligence artificielle est en grande partie localisée. Ma millième invite ne rendra pas directement le système plus précieux pour vous. Certes, le cycle de données peut optimiser le modèle, mais l’expérience utilisateur reste personnelle, et non sociale. L’IA est un outil privé, pouvant avoir une dimension émotionnelle, mais son cœur est pratique.
Cela crée un problème structurel : l’IA ne peut pas s’appuyer sur l’effet de réseau exponentiel des plateformes de la génération précédente. En l’absence d’un réseau social natif, l’industrie ne peut que tomber dans un cycle de consommation élevé, poursuivant constamment les utilisateurs précoces, les joueurs intensifs et les élites technologiques. Cette stratégie fonctionne dans l’ère des explorateurs, mais ne peut pas toucher à grande échelle les deux milliards d’utilisateurs suivants.
Plus important encore, ce modèle échouera complètement face aux barrières souveraines. Car quand les effets de réseau sont faibles, la confiance ne se forme pas spontanément, mais doit être introduite de l’extérieur.
Transformation : passer des effets de réseau aux effets de confiance
Si l’intelligence artificielle ne peut pas s’appuyer sur les effets de réseau social pour se diffuser, elle doit s’appuyer sur une autre force : le réseau de confiance. C’est un changement clé :
De l’acquisition d’utilisateurs à l’autonomisation des intermédiaires
YouTube a pu s’étendre à grande échelle précisément parce qu’il a tiré parti du réseau de confiance humain existant. L’IA doit faire de même. Au lieu d’essayer d’établir une relation directe avec des milliards d’utilisateurs, la stratégie gagnante devrait être :
Autonomiser ceux qui ont déjà des relations avec les utilisateurs ;
Tirer parti de la confiance qu’ils ont déjà accumulée ;
Distribuer les capacités intelligentes par ces canaux.
Pourquoi c’est crucial
Dans un monde façonné par les barrières souveraines :
Les canaux de distribution sont limités ;
Le modèle d’interaction directe avec les utilisateurs est fragile ;
La confiance est localisée, et non mondialisée.
Sans un effet de réseau puissant, l’intelligence artificielle ne pourra pas se développer par la force brute, elle doit s’infiltrer par la confiance. L’intelligence artificielle n’a pas d’effet de réseau, elle a un effet de confiance.
Solution : l’ère des intermédiaires arrive
Comment YouTube a-t-il réussi à s’imposer sur les marchés internationaux ? Ce n’est pas grâce à un meilleur lecteur, ni à une simple localisation des textes de l’interface. La clé du succès est de devenir la plateforme privilégiée des populations qui ont déjà une confiance locale. Dans chaque marché, le point de départ de l’acceptation des utilisateurs n’est pas YouTube lui-même, mais plutôt des points d’ancrage d’identité - ces individus et communautés qui détiennent déjà le pouvoir culturel :
Les fans de Bollywood rassemblent des extraits rares de Shah Rukh Khan pour la communauté des expatriés à Dubaï
Les passionnés de bande dessinée américains créent un écosystème de contenu en profondeur qui n’a jamais été couvert par les médias mainstream
Les humoristes locaux, les enseignants et les créateurs de mashups transforment le contenu mondial en une forme conforme à la compréhension culturelle
Ces créateurs ne se contentent pas de télécharger des vidéos, ils interprètent Internet pour leur public, agissant comme des intermédiaires de confiance, construisant des ponts entre les plateformes étrangères et les utilisateurs locaux. Le succès de YouTube réside dans le fait qu’il est devenu l’infrastructure invisible qui soutient ces points d’ancrage d’identité.
La logique centrale négligée : le modèle direct aux consommateurs se heurte aux barrières souveraines
Aujourd’hui, la plupart des entreprises d’IA continuent d’adopter une mentalité de face-à-face avec le consommateur : créer un modèle supérieur → présenter à travers une interface de chat → acquérir directement des utilisateurs.
Ce modèle est efficace à court terme, mais difficile à maintenir sur le long terme. Parce que dans un marché à forte friction, les utilisateurs n’acceptent pas directement les nouvelles technologies, mais les adoptent grâce à des personnes de confiance.
L’expansion mondiale de YouTube ne s’est pas faite en persuadant un à un des milliards d’utilisateurs, mais en autonomisant ceux qui avaient déjà gagné la confiance du public. C’est là que réside la véritable signification de l’infrastructure invisible : vous ne possédez pas de relations avec les utilisateurs, vous soutenez les relations avec les utilisateurs. Et à l’échelle de la croissance, ce modèle a une meilleure barrière de protection.
Passer de la discussion à l’agent intelligent : autonomiser les intermédiaires de confiance
C’est précisément le cœur du passage de l’interface de chat à l’agent intelligent. Le chat est un outil orienté vers l’individu, tandis que l’agent intelligent est un levier pour les intermédiaires. Si nous appliquons la philosophie d’Amir Wara d’Anthropic - “créer des produits pour ceux qui sont les plus épuisés”, alors dans de nombreux marchés, ces personnes sont les convertisseurs de confiance :
Les éducateurs qui adaptent des concepts étrangers
Les entrepreneurs qui affrontent les bureaucraties locales
Les leaders communautaires qui gèrent la surcharge d’informations
La clé du succès est de résoudre le délai de confiance auquel ils font face - c’est-à-dire le fossé entre les capacités intelligentes mondiales et les scénarios pratiques locaux. Cela nécessite un système de soutien aux agents intelligents qui soit concret :
Pour les éducateurs : Sora / GPT-5.2 réécrit les cours - remplaçant les analogies de football américain par des analogies de cricket, tout en préservant le sens fondamental et en s’adaptant à la culture locale.
Pour les entrepreneurs individuels : les agents intelligents peuvent non seulement comprendre les formulaires fiscaux de Singapour, mais aussi remplir et soumettre via des API locales.
Pour les leaders communautaires : ajouter une fonctionnalité de mémoire contextuelle sur WhatsApp - extraire des actions structurées de dix mille messages, tout en conservant les informations efficaces et en maintenant les normes communautaires.
Le cœur de la viabilité du modèle : résoudre le dernier kilomètre du délai de confiance
Pour comprendre pourquoi ce modèle peut se développer, il faut comprendre le délai de confiance. Dans de nombreuses régions du monde, le goulot d’étranglement n’est pas l’accès à la technologie, mais le temps, le risque et l’incertitude nécessaires pour établir la confiance. La diffusion de la technologie ne dépend pas de la publicité, mais de l’approbation.
La plupart des entreprises d’IA commettent l’erreur de tenter de centraliser le paiement de la taxe de confiance par des marques, des distributions ou des produits, mais la confiance ne peut pas se développer de cette manière à grande échelle.
Le chemin le plus rapide consiste à externaliser la taxe de confiance à ceux qui en ont déjà supporté le coût - les créateurs, éducateurs et opérateurs enracinés localement. Ils ont déjà effectué des essais pour leur public, ont compris ce qui fonctionne et ce qui ne fonctionne pas dans les scénarios locaux, et ont pris le risque pour leur public.
En autonomisant ces intermédiaires de confiance :
Le coût d’acquisition des utilisateurs devient proche de zéro : la distribution repose sur le réseau de confiance existant ;
La valeur à vie des utilisateurs augmente : les fonctionnalités pratiques correspondent aux besoins locaux, plutôt qu’à une généralisation ;
La vitesse de diffusion augmente : la confiance est directement héritée, sans besoin de tout reconstruire depuis le début.
Les entreprises disposeront ainsi d’une équipe de vente à l’échelle mondiale sans frais, dont la crédibilité, l’efficacité et la profondeur d’enracinement surpassent de loin toute stratégie de promotion centralisée. Vous ne créez plus de produits pour les utilisateurs, mais vous fournissez un levier à ceux en qui les utilisateurs ont déjà confiance.
C’est exactement le chemin de l’expansion mondiale de YouTube, et c’est la seule manière pour l’intelligence artificielle de franchir les barrières souveraines.
Entrepôts de données souverains : la barrière géopolitique
Le technophile prôné par Marc Andreessen n’aboutit finalement pas à une lutte contre la réglementation, mais à la “produitisation” de la réglementation. En concurrence avec DeepSeek en Chine et Kimi, la victoire ne réside pas dans l’ignorance des frontières, mais dans la maîtrise des entrepôts de données.
Qu’est-ce qu’un entrepôt de données souverain ? C’est une instance de localisation prioritaire du modèle, fonctionnant au sein d’une infrastructure publique numérique (DPI) d’un pays.
Barrière géopolitique : en permettant à des pays comme l’Inde, le Brésil, etc., de posséder des droits numériques sur les modèles, les poids et les données, nous renversons fondamentalement le paysage du contrôle. Les capacités intelligentes ne sont plus médiées par des plateformes étrangères, mais sont gouvernées de manière autonome au sein des frontières nationales. Ce n’est pas un “blocage” direct des concurrents externes, mais une augmentation considérable de leurs coûts d’influence, une réduction de leur dépendance extérieure, et une diminution des risques d’être contrôlés, que les données soient extraites ou subissent des interventions unilatérales.
Points d’ancrage d’identité : lier profondément les modèles à la culture locale et aux réalités juridiques, construisant une barrière que l’intelligence générale ne peut franchir.
Boucle de rétroaction : résoudre des problèmes de détails hyperlocalisés comme les permis fiscaux en Malaisie n’est pas une distraction, mais un accélérateur de modèle. Cela donne au modèle fondamental une flexibilité culturelle, lui permettant de rester toujours au meilleur niveau d’intelligence mondial.
Il existe une contradiction réelle ici. La vision de l’intelligence artificielle est de réaliser une intelligence générale, mais la tendance à la souveraineté pousse l’ensemble de l’écosystème vers la fragmentation. Si chaque pays construit sa propre pile technologique, nous ferons face à des risques d’incompatibilité des systèmes, de normes de sécurité inégales et de redondance des ressources. Les laboratoires de pointe ne sont pas seulement confrontés au défi d’augmenter l’échelle de l’intelligence, mais de concevoir une architecture qui permette d’atteindre une gouvernance locale sans affaiblir les avantages de la coopération mondiale en matière de capacités.
Trois transformations structurelles de l’ère des intermédiaires
1. La distribution de l’intelligence artificielle entrera dans les réseaux de confiance existants
L’intelligence artificielle ne se développera pas par des applications indépendantes, mais sera intégrée dans des plateformes de messagerie instantanée, des flux de travail de créateurs, des systèmes éducatifs et des infrastructures pour les petites et micro-entreprises - car la confiance est déjà établie dans ces scénarios. En l’absence d’effets de réseau puissants, la distribution doit s’appuyer sur les réseaux interpersonnels existants.
2. L’infrastructure d’IA au niveau national deviendra la norme
Les gouvernements de nombreux pays exigeront de plus en plus que les systèmes d’intelligence artificielle critiques soient déployés avec des modèles localisés, des constructions de puissance souveraine ou acceptent des examens réglementaires, ce qui accélérera la mise en œuvre des structures d’entrepôts de données souverains.
3. L’économie des créateurs se transformera en économie des agents intelligents
Les créateurs ne se contenteront pas de produire du contenu, ils déploieront des agents intelligents pour exécuter de véritables tâches pour leurs communautés. Ces agents deviendront l’extension de personnes de confiance, héritant de leur réputation et transmettant des capacités intelligentes via des réseaux de confiance.
Bien sûr, il existe une autre possibilité d’avenir : un assistant occupant une position de domination absolue, profondément intégré dans des systèmes d’exploitation, des navigateurs et des appareils, établissant directement des liens entre les utilisateurs et les modèles, contournant complètement les intermédiaires. Si cela se réalise, la couche de confiance serait directement intégrée dans cet assistant.
Mais l’expérience historique indique une configuration plus diversifiée. Même les plateformes les plus dominantes - des systèmes d’exploitation mobiles aux réseaux sociaux - ont finalement prospéré grâce à des écosystèmes. L’intelligence peut être universelle, mais la confiance reste toujours localisée. Quel que soit le modèle qui l’emporte, le défi central ne changera pas : la démocratisation de l’IA n’est plus principalement une question de modèles, mais de diffusion et de confiance.
Conclusion : le marché de niche est le véritable marché mondial
La plus grande erreur de l’ère des explorateurs est de croire que l’intelligence est un produit standardisé - une seule API mondiale qui fonctionne de manière identique dans les salles de conférence de Manhattan et dans les villages du Karnataka. Les barrières souveraines révèlent une vérité plus cruelle : l’intelligence peut être universelle, mais sa diffusion ne l’est pas.
Les institutions nationales et locales ne veulent pas d’un système externe en boîte noire, elles veulent le contrôle, la capacité d’adaptation aux scénarios et le droit de façonner l’intelligence dans leurs propres frontières. Elles ne veulent pas d’applications prêtes à l’emploi, mais de voies sous-jacentes - d’infrastructures, de systèmes de sécurité et de puissance de calcul, permettant à leurs citoyens de construire de manière autonome.
La logique de croissance de 2026 ne consiste plus à rechercher une expérience utilisateur universelle, mais à assurer la flexibilité des produits - permettant à l’intelligence de s’adapter aux scénarios locaux, à la réglementation et à la culture sans perdre ses capacités fondamentales. Si nous continuons à poursuivre directement les consommateurs mondiaux, nous serons toujours une couche étrangère - fragile, remplaçable et susceptibles de subir les impacts que j’ai vécus chez YouTube.
Mais lorsque nous nous tournons vers l’autonomisation des intermédiaires, le modèle changera radicalement : passer de l’interface de chat aux agents intelligents, de la persuasion des utilisateurs à l’autonomisation des intermédiaires de confiance, de la lutte contre la réglementation à la transformation de la réglementation en barrière de protection.
La montée en puissance de l’intelligence artificielle ne repose pas sur les modèles, mais sur la confiance.
Les gagnants de la course à l’intelligence artificielle ne seront pas les entreprises ayant les modèles les plus intelligents, mais celles qui parviennent à multiplier par dix les capacités des héros locaux - enseignants, comptables, leaders communautaires. Parce qu’en fin de compte, l’intelligence se transmet dans le système, tandis que la démocratisation se produit au sein de la population.