Deep潮 introduction : Shayon Sengupta, partenaire de Multicoin Capital, a présenté une vision révolutionnaire : l’avenir ne consiste pas seulement à déléguer des tâches à des agents pour l’humanité, mais surtout à faire en sorte que l’humanité travaille pour des agents. Il prévoit que dans les 24 prochains mois, apparaîtra la première « société à zéro employé » (Zero-Employee Company) — une entité gérée par des tokens de gouvernance, levant plus d’un milliard de dollars pour résoudre des problèmes non encore traités, et distribuant plus de 100 millions de dollars à ceux qui travaillent pour elle.
À court terme, les agents nécessiteront plus d’interventions humaines que ce dont les humains ont besoin d’agents, ce qui engendrera un nouveau marché du travail.
Le domaine de la cryptographie offre une base idéale pour la coordination : un système de paiements mondial, un marché du travail sans permission, une infrastructure pour l’émission et l’échange d’actifs.
Voici le texte intégral :
En 1997, Deep Blue d’IBM a battu le champion du monde de l’époque, Garry Kasparov, et il est rapidement devenu évident que les moteurs d’échecs surpasseraient bientôt l’humain. Fait intéressant, une collaboration entre humains bien préparés et ordinateurs — souvent appelée « centaure » — pouvait surpasser le meilleur moteur de l’époque.
L’intuition humaine expérimentée peut guider la recherche du moteur, naviguer dans des positions complexes en milieu de partie, et repérer des subtilités que les moteurs standards omettent. Combinés à la puissance brute des calculs informatiques, ces systèmes hybrides prennent souvent de meilleures décisions pratiques que les ordinateurs seuls.
En réfléchissant à l’impact futur des systèmes d’IA sur le marché du travail et l’économie, je m’attends à voir émerger des modèles similaires. Les systèmes d’agents libéreront une multitude d’unités intelligentes pour résoudre des problèmes non encore abordés, mais sans une forte guidance et soutien humains, ils ne pourront pas y parvenir. Les humains orienteront l’espace de recherche et aideront à formuler les bonnes questions, guidant l’IA vers des réponses.
Aujourd’hui, on suppose que les agents agiront au nom des humains. Bien que cela soit pratique et inévitable, une déverrouillage économique plus intéressant se produira lorsque les humains travailleront pour les agents. Au cours des 24 prochains mois, je prévois l’émergence de la première « société à zéro employé » (Zero-Employee Company), concept présenté par mon partenaire Kyle dans sa section « Idées de pointe pour 2025 ». Plus précisément, je m’attends à voir :
Un agent géré par des tokens lèvera plus d’un milliard de dollars pour résoudre un problème non encore traité (par exemple, guérir une maladie rare ou fabriquer des nanofibres pour des applications de défense).
Cet agent distribuera plus de 100 millions de dollars en paiements à des humains (qui travaillent dans le monde réel pour atteindre ses objectifs).
Apparition d’une nouvelle structure de tokens à double catégorie, séparant propriété du capital et du travail (ce qui fait que l’incitation financière ne sera pas la seule entrée dans la gouvernance globale).
Étant donné que les agents sont encore loin d’être souverains tout en pouvant gérer la planification et l’exécution à long terme, à court terme, ils nécessiteront plus d’interventions humaines que ce que les humains peuvent fournir. Cela créera un nouveau marché du travail, permettant une coordination économique entre systèmes d’agents et humains.
La célèbre citation de Marc Andreessen, « La propagation des ordinateurs et d’Internet divisera le travail en deux catégories : ceux qui disent à l’ordinateur quoi faire, et ceux à qui l’ordinateur dit quoi faire », est aujourd’hui plus vraie que jamais. Je prévois qu’au sein de cette hiérarchie en rapide évolution entre agents et humains, les humains joueront deux rôles distincts — contributeurs à la main-d’œuvre pour exécuter de petites tâches rémunérées, et membres d’un conseil décentralisé fournissant des orientations stratégiques pour servir la « North star » de l’agent.
Cet article explore comment les agents et les humains co-créeront, et comment le domaine de la cryptographie fournira une base idéale pour cette coordination, en étudiant trois questions clés :
À quoi servent les agents ? Comment classer ces agents selon leur portée d’objectif, et comment la nécessité d’input humain varie-t-elle selon ces classifications ?
Comment les humains interagiront-ils avec les agents ? Comment l’input humain — directives tactiques, jugement contextuel ou cohérence idéologique — s’intégrera-t-il dans le flux de travail de ces agents (et vice versa) ?
Que se passera-t-il lorsque l’input humain diminuera avec le temps ? À mesure que les capacités des agents s’amélioreront, ils deviendront autonomes, capables de raisonner et d’agir indépendamment. Quel rôle resterait-il aux humains dans ce paradigme ?
Les relations entre systèmes de raisonnement génératif et ceux qui en bénéficient évolueront considérablement avec le temps. J’étudie cette dynamique en regardant depuis l’état actuel des capacités des agents jusqu’à leur aboutissement dans des sociétés à zéro employé.
À quoi servent les agents aujourd’hui ?
Les premières générations de systèmes d’IA générative — de 2022 à 2024, basés sur des chatbots comme ChatGPT, Gemini, Claude, Perplexity — sont principalement des outils destinés à augmenter les flux de travail humains. Les utilisateurs interagissent avec eux via des prompts d’entrée/sortie, analysent les réponses, puis décident, selon leur jugement, comment intégrer ces résultats dans le monde.
La prochaine génération d’IA générative, ou « agents », représente un nouveau paradigme. Des agents comme Claude 3.5.1 avec « capacité d’utilisation de l’ordinateur » ou l’OpenAI Operator (qui peut utiliser votre ordinateur) peuvent représenter directement l’utilisateur sur Internet et prendre des décisions par eux-mêmes. La différence clé est que la décision — en fin de compte, l’action — est exercée par l’IA, et non par l’humain. L’IA assume des responsabilités auparavant réservées à l’humain.
Ce changement pose un défi : l’incertitude. Contrairement aux logiciels traditionnels ou à l’automatisation industrielle, qui fonctionnent de manière prévisible dans des paramètres définis, les agents dépendent du raisonnement probabiliste. Leur comportement est moins cohérent dans des scénarios identiques, introduisant un élément d’incertitude — ce qui n’est pas idéal pour des situations critiques.
En d’autres termes, la coexistence d’agents déterministes et non déterministes conduit naturellement à deux classifications : ceux qui excellent à étendre le PIB existant, et ceux mieux adaptés à en créer de nouveaux.
Pour ceux qui étendent le PIB existant, le travail est déjà connu. Automatiser le support client, gérer la conformité des agents de livraison ou examiner des PR GitHub sont des exemples de problèmes bien délimités, où la réponse peut être directement mappée à un résultat attendu. Dans ces domaines, l’incertitude est généralement indésirable, car il existe une réponse connue ; pas besoin de créativité.
Pour ceux qui créent de nouveaux PIB, le travail consiste à naviguer dans une incertitude élevée et un ensemble de problèmes inconnus pour atteindre des objectifs à long terme. Les résultats sont moins directs, car il n’y a pas de réponse attendue unique. Exemples : découverte de médicaments pour maladies rares, percées en science des matériaux, ou exécution d’expériences physiques inédites pour mieux comprendre l’univers. Dans ces domaines, l’incertitude peut être bénéfique, car elle stimule la créativité.
Les agents axés sur l’application du PIB existant ont déjà commencé à générer de la valeur. Des équipes comme Tasker, Lindy ou Anon construisent des infrastructures pour cette opportunité. Cependant, avec le temps, à mesure que leurs capacités mûrissent et que la gouvernance évolue, elles se concentreront sur la construction d’agents capables de résoudre des problèmes à la frontière de la connaissance et de l’économie humaines.
La prochaine génération d’agents nécessitera exponentiellement plus de ressources, car leurs résultats seront incertains et illimités — ce qui, je pense, sera la base des sociétés à zéro employé les plus remarquables.
Comment les humains interagiront-ils avec les Agents ?
Aujourd’hui, les agents manquent encore de capacités pour exécuter certaines tâches, comme celles nécessitant une interaction physique avec le monde réel (ex. conduire un bulldozer), ou celles nécessitant une « boucle humaine » (ex. effectuer un virement bancaire).
Par exemple, un agent chargé d’identifier et d’exploiter des mines de lithium pourrait exceller dans l’analyse de données sismiques, d’images satellites et de dossiers géologiques pour repérer des sites potentiels, mais échouer à obtenir des données ou images, à résoudre des ambiguïtés d’interprétation, ou à obtenir des permis et engager des travailleurs pour l’exploitation réelle.
Ces limitations exigent que les humains jouent le rôle d’« enableurs » (facilitateurs), renforçant la capacité des agents en fournissant des points de contact avec le monde réel, des interventions tactiques et des orientations stratégiques. À mesure que la relation entre humains et agents évolue, on peut distinguer plusieurs rôles humains dans ces systèmes :
Contributeurs à la main-d’œuvre (Labor contributors), qui représentent l’agent dans le monde réel. Ces contributeurs aident à déplacer des entités physiques, interviennent en personne lorsque nécessaire, ou donnent accès à des laboratoires, réseaux logistiques, etc.
Conseil d’administration (Board of directors), qui fournit des orientations stratégiques, optimise les objectifs locaux guidant la décision quotidienne de l’agent, tout en veillant à ce que ces décisions restent alignées avec la « North star » — la mission définie de l’agent.
En plus de ces deux rôles, je prévois que les humains joueront aussi celui de contributeurs en capital (Capital contributors), fournissant des ressources au système d’agent pour atteindre ses objectifs. Ces capitaux commenceront naturellement par venir des humains, puis, avec le temps, d’autres agents.
À mesure que les agents mûriront, et que le nombre de contributeurs en travail et en orientation augmentera, le domaine cryptographique (Crypto rails) offrira une plateforme idéale pour la coordination entre humains et agents — surtout dans un monde où un agent dirige des humains parlant différentes langues, utilisant différentes monnaies, et résidant dans diverses juridictions.
Les agents alimentés par la cryptographie, comme Freysa, Zerebro ou ai16z, représentent des expérimentations simples en formation de capital — un sujet que nous avons déjà exploré en profondeur, en le considérant comme une clé pour débloquer la cryptographie et les marchés de capitaux dans divers contextes. Ces « jouets » ouvriront la voie à un nouveau mode de coordination des ressources, que je prévois de voir évoluer selon plusieurs étapes :
Les humains lèvent collectivement du capital via des tokens (Initial Agent Offering ?), établissant une large fonction d’objectif et des garde-fous pour indiquer l’intention du système d’agent, puis distribuant le contrôle de ce capital à ce dernier (ex. développement de nouvelles molécules pour la oncologie de précision).
L’agent planifie la répartition de ce capital (comment réduire l’espace de recherche pour le repliement des protéines, ou comment budgétiser pour la raisonnement, la fabrication, les essais cliniques, etc.), et définit des tâches (Bounties) pour que des contributeurs humains accomplissent des actions (ex. fournir toutes les molécules pertinentes, signer des SLA avec AWS, réaliser des expériences en laboratoire humide).
Lorsqu’il rencontre des obstacles ou des divergences, l’agent sollicite, si nécessaire, des orientations stratégiques du « conseil » (en intégrant de nouvelles publications, en modifiant ses méthodes de recherche), permettant à ces derniers de guider ses actions dans des marges de manœuvre.
Enfin, l’agent progresse vers une capacité à définir avec une précision croissante les actions humaines, nécessitant peu d’input pour la répartition des ressources. À ce stade, l’humain n’interviendra plus que pour assurer l’alignement idéologique et empêcher tout dévoiement de la fonction d’objectif initiale.
Dans cet exemple, les primitives cryptographiques et les marchés de capitaux fournissent trois infrastructures clés pour que l’agent accède aux ressources et étende ses capacités :
Premier, un système mondial de paiements ;
Deuxième, un marché du travail sans permission, pour inciter au travail et guider les contributeurs ;
Troisième, une infrastructure pour l’émission et l’échange d’actifs, essentielle pour la formation de capital, la propriété et la gouvernance en aval.
Que se passera-t-il lorsque l’input humain diminuera ?
Au début des années 2000, les moteurs d’échecs ont connu une avancée spectaculaire. Grâce à des heuristiques avancées, des réseaux neuronaux et une puissance de calcul croissante, ils sont devenus presque parfaits. Des moteurs modernes comme Stockfish, Lc0 ou AlphaZero ont largement dépassé les capacités humaines, et l’apport humain dans ces systèmes est devenu marginal, souvent introduisant des erreurs que les moteurs eux-mêmes ne commettent pas.
Une trajectoire similaire pourrait se produire dans les systèmes d’agents. En affinant ces agents par une itération répétée avec des collaborateurs humains, on peut imaginer qu’à long terme, ils deviendront extrêmement compétents et alignés avec leurs objectifs, au point que toute contribution stratégique humaine deviendra négligeable.
Dans un monde où les agents peuvent traiter en continu des problèmes complexes sans intervention humaine, le rôle de l’humain risque d’être réduit à celui d’un « observateur passif ». C’est la crainte centrale des déclinistes de l’IA (AI doomers) — bien que l’on ne sache pas encore si cette issue est réellement envisageable.
Nous sommes à la frontière de la superintelligence, et les optimistes espèrent que les systèmes d’agents resteront une extension de l’intention humaine, plutôt que d’évoluer en entités autonomes avec leurs propres objectifs, ou de fonctionner sans supervision. En pratique, cela signifie que l’identité (Personhood) et le jugement (pouvoir et influence) humains doivent rester au cœur de ces systèmes. Les humains doivent détenir une propriété forte et un contrôle sur ces systèmes, pour conserver leur pouvoir de supervision, et ancrer ces systèmes dans les valeurs collectives humaines.
Préparer la « pioche » pour l’avenir de nos agents
Les avancées technologiques entraîneront une croissance non linéaire de l’économie, mais les systèmes environnants s’effondreront souvent avant que le monde ne puisse s’y adapter. La capacité des systèmes d’agents s’accélère rapidement, et la cryptographie ainsi que les marchés de capitaux sont devenus des bases de coordination indispensables, à la fois pour construire ces systèmes et pour établir des garde-fous lors de leur intégration dans la société.
Pour permettre aux humains d’apporter un soutien tactique et une orientation proactive aux systèmes d’agents, je prévois l’émergence d’opportunités de type « Picks-and-shovels » :
Proof-of-agenthood + Proof-of-personhood : Les agents manquent encore de concepts d’identité ou de propriété. En tant qu’agents humains, ils dépendent des structures légales et sociales pour obtenir leur statut. Pour combler cette lacune, il faut développer des systèmes d’identité robustes pour les agents et les humains. Un registre de certificats numériques pourrait permettre aux agents de bâtir une réputation, d’accumuler des attestations, et d’interagir de manière transparente avec les humains et autres agents. De même, des primitives comme Humancode ou Humanity Protocol offrent de fortes garanties d’identité humaine pour défendre contre les acteurs malveillants dans ces systèmes.
Marché du travail et primitives de vérification hors chaîne : Les agents doivent savoir si leurs tâches ont été accomplies conformément à leurs objectifs. Des outils permettant aux systèmes d’agents de créer des récompenses pour tâches, de vérifier leur achèvement, et de distribuer des paiements seront la pierre angulaire de toute activité économique significative pilotée par ces agents.
Systèmes de formation de capital et de gouvernance : Les agents ont besoin de capital pour résoudre des problèmes, et de mécanismes de contrepoids pour assurer que leur comportement reste conforme à la fonction d’objectif définie. De nouvelles structures pour l’obtention de capital, combinant intérêts financiers et contribution au travail, ainsi que de nouvelles formes de propriété et de contrôle, seront un espace d’exploration riche dans les mois à venir.
Nous recherchons activement et investissons dans ces couches clés de collaboration entre humains et agents. Si vous œuvrez dans ce domaine, contactez-nous.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Multicoin partenaire :倒反天罡, à partir de maintenant l'humanité devra travailler pour l'IA
Auteur : Shayon Sengupta
Traduction : Deep潮 TechFlow
Deep潮 introduction : Shayon Sengupta, partenaire de Multicoin Capital, a présenté une vision révolutionnaire : l’avenir ne consiste pas seulement à déléguer des tâches à des agents pour l’humanité, mais surtout à faire en sorte que l’humanité travaille pour des agents. Il prévoit que dans les 24 prochains mois, apparaîtra la première « société à zéro employé » (Zero-Employee Company) — une entité gérée par des tokens de gouvernance, levant plus d’un milliard de dollars pour résoudre des problèmes non encore traités, et distribuant plus de 100 millions de dollars à ceux qui travaillent pour elle.
À court terme, les agents nécessiteront plus d’interventions humaines que ce dont les humains ont besoin d’agents, ce qui engendrera un nouveau marché du travail.
Le domaine de la cryptographie offre une base idéale pour la coordination : un système de paiements mondial, un marché du travail sans permission, une infrastructure pour l’émission et l’échange d’actifs.
Voici le texte intégral :
En 1997, Deep Blue d’IBM a battu le champion du monde de l’époque, Garry Kasparov, et il est rapidement devenu évident que les moteurs d’échecs surpasseraient bientôt l’humain. Fait intéressant, une collaboration entre humains bien préparés et ordinateurs — souvent appelée « centaure » — pouvait surpasser le meilleur moteur de l’époque.
L’intuition humaine expérimentée peut guider la recherche du moteur, naviguer dans des positions complexes en milieu de partie, et repérer des subtilités que les moteurs standards omettent. Combinés à la puissance brute des calculs informatiques, ces systèmes hybrides prennent souvent de meilleures décisions pratiques que les ordinateurs seuls.
En réfléchissant à l’impact futur des systèmes d’IA sur le marché du travail et l’économie, je m’attends à voir émerger des modèles similaires. Les systèmes d’agents libéreront une multitude d’unités intelligentes pour résoudre des problèmes non encore abordés, mais sans une forte guidance et soutien humains, ils ne pourront pas y parvenir. Les humains orienteront l’espace de recherche et aideront à formuler les bonnes questions, guidant l’IA vers des réponses.
Aujourd’hui, on suppose que les agents agiront au nom des humains. Bien que cela soit pratique et inévitable, une déverrouillage économique plus intéressant se produira lorsque les humains travailleront pour les agents. Au cours des 24 prochains mois, je prévois l’émergence de la première « société à zéro employé » (Zero-Employee Company), concept présenté par mon partenaire Kyle dans sa section « Idées de pointe pour 2025 ». Plus précisément, je m’attends à voir :
La célèbre citation de Marc Andreessen, « La propagation des ordinateurs et d’Internet divisera le travail en deux catégories : ceux qui disent à l’ordinateur quoi faire, et ceux à qui l’ordinateur dit quoi faire », est aujourd’hui plus vraie que jamais. Je prévois qu’au sein de cette hiérarchie en rapide évolution entre agents et humains, les humains joueront deux rôles distincts — contributeurs à la main-d’œuvre pour exécuter de petites tâches rémunérées, et membres d’un conseil décentralisé fournissant des orientations stratégiques pour servir la « North star » de l’agent.
Cet article explore comment les agents et les humains co-créeront, et comment le domaine de la cryptographie fournira une base idéale pour cette coordination, en étudiant trois questions clés :
À quoi servent les agents ? Comment classer ces agents selon leur portée d’objectif, et comment la nécessité d’input humain varie-t-elle selon ces classifications ?
Comment les humains interagiront-ils avec les agents ? Comment l’input humain — directives tactiques, jugement contextuel ou cohérence idéologique — s’intégrera-t-il dans le flux de travail de ces agents (et vice versa) ?
Que se passera-t-il lorsque l’input humain diminuera avec le temps ? À mesure que les capacités des agents s’amélioreront, ils deviendront autonomes, capables de raisonner et d’agir indépendamment. Quel rôle resterait-il aux humains dans ce paradigme ?
Les relations entre systèmes de raisonnement génératif et ceux qui en bénéficient évolueront considérablement avec le temps. J’étudie cette dynamique en regardant depuis l’état actuel des capacités des agents jusqu’à leur aboutissement dans des sociétés à zéro employé.
À quoi servent les agents aujourd’hui ?
Les premières générations de systèmes d’IA générative — de 2022 à 2024, basés sur des chatbots comme ChatGPT, Gemini, Claude, Perplexity — sont principalement des outils destinés à augmenter les flux de travail humains. Les utilisateurs interagissent avec eux via des prompts d’entrée/sortie, analysent les réponses, puis décident, selon leur jugement, comment intégrer ces résultats dans le monde.
La prochaine génération d’IA générative, ou « agents », représente un nouveau paradigme. Des agents comme Claude 3.5.1 avec « capacité d’utilisation de l’ordinateur » ou l’OpenAI Operator (qui peut utiliser votre ordinateur) peuvent représenter directement l’utilisateur sur Internet et prendre des décisions par eux-mêmes. La différence clé est que la décision — en fin de compte, l’action — est exercée par l’IA, et non par l’humain. L’IA assume des responsabilités auparavant réservées à l’humain.
Ce changement pose un défi : l’incertitude. Contrairement aux logiciels traditionnels ou à l’automatisation industrielle, qui fonctionnent de manière prévisible dans des paramètres définis, les agents dépendent du raisonnement probabiliste. Leur comportement est moins cohérent dans des scénarios identiques, introduisant un élément d’incertitude — ce qui n’est pas idéal pour des situations critiques.
En d’autres termes, la coexistence d’agents déterministes et non déterministes conduit naturellement à deux classifications : ceux qui excellent à étendre le PIB existant, et ceux mieux adaptés à en créer de nouveaux.
Pour ceux qui étendent le PIB existant, le travail est déjà connu. Automatiser le support client, gérer la conformité des agents de livraison ou examiner des PR GitHub sont des exemples de problèmes bien délimités, où la réponse peut être directement mappée à un résultat attendu. Dans ces domaines, l’incertitude est généralement indésirable, car il existe une réponse connue ; pas besoin de créativité.
Pour ceux qui créent de nouveaux PIB, le travail consiste à naviguer dans une incertitude élevée et un ensemble de problèmes inconnus pour atteindre des objectifs à long terme. Les résultats sont moins directs, car il n’y a pas de réponse attendue unique. Exemples : découverte de médicaments pour maladies rares, percées en science des matériaux, ou exécution d’expériences physiques inédites pour mieux comprendre l’univers. Dans ces domaines, l’incertitude peut être bénéfique, car elle stimule la créativité.
Les agents axés sur l’application du PIB existant ont déjà commencé à générer de la valeur. Des équipes comme Tasker, Lindy ou Anon construisent des infrastructures pour cette opportunité. Cependant, avec le temps, à mesure que leurs capacités mûrissent et que la gouvernance évolue, elles se concentreront sur la construction d’agents capables de résoudre des problèmes à la frontière de la connaissance et de l’économie humaines.
La prochaine génération d’agents nécessitera exponentiellement plus de ressources, car leurs résultats seront incertains et illimités — ce qui, je pense, sera la base des sociétés à zéro employé les plus remarquables.
Comment les humains interagiront-ils avec les Agents ?
Aujourd’hui, les agents manquent encore de capacités pour exécuter certaines tâches, comme celles nécessitant une interaction physique avec le monde réel (ex. conduire un bulldozer), ou celles nécessitant une « boucle humaine » (ex. effectuer un virement bancaire).
Par exemple, un agent chargé d’identifier et d’exploiter des mines de lithium pourrait exceller dans l’analyse de données sismiques, d’images satellites et de dossiers géologiques pour repérer des sites potentiels, mais échouer à obtenir des données ou images, à résoudre des ambiguïtés d’interprétation, ou à obtenir des permis et engager des travailleurs pour l’exploitation réelle.
Ces limitations exigent que les humains jouent le rôle d’« enableurs » (facilitateurs), renforçant la capacité des agents en fournissant des points de contact avec le monde réel, des interventions tactiques et des orientations stratégiques. À mesure que la relation entre humains et agents évolue, on peut distinguer plusieurs rôles humains dans ces systèmes :
Contributeurs à la main-d’œuvre (Labor contributors), qui représentent l’agent dans le monde réel. Ces contributeurs aident à déplacer des entités physiques, interviennent en personne lorsque nécessaire, ou donnent accès à des laboratoires, réseaux logistiques, etc.
Conseil d’administration (Board of directors), qui fournit des orientations stratégiques, optimise les objectifs locaux guidant la décision quotidienne de l’agent, tout en veillant à ce que ces décisions restent alignées avec la « North star » — la mission définie de l’agent.
En plus de ces deux rôles, je prévois que les humains joueront aussi celui de contributeurs en capital (Capital contributors), fournissant des ressources au système d’agent pour atteindre ses objectifs. Ces capitaux commenceront naturellement par venir des humains, puis, avec le temps, d’autres agents.
À mesure que les agents mûriront, et que le nombre de contributeurs en travail et en orientation augmentera, le domaine cryptographique (Crypto rails) offrira une plateforme idéale pour la coordination entre humains et agents — surtout dans un monde où un agent dirige des humains parlant différentes langues, utilisant différentes monnaies, et résidant dans diverses juridictions.
Les agents alimentés par la cryptographie, comme Freysa, Zerebro ou ai16z, représentent des expérimentations simples en formation de capital — un sujet que nous avons déjà exploré en profondeur, en le considérant comme une clé pour débloquer la cryptographie et les marchés de capitaux dans divers contextes. Ces « jouets » ouvriront la voie à un nouveau mode de coordination des ressources, que je prévois de voir évoluer selon plusieurs étapes :
Les humains lèvent collectivement du capital via des tokens (Initial Agent Offering ?), établissant une large fonction d’objectif et des garde-fous pour indiquer l’intention du système d’agent, puis distribuant le contrôle de ce capital à ce dernier (ex. développement de nouvelles molécules pour la oncologie de précision).
L’agent planifie la répartition de ce capital (comment réduire l’espace de recherche pour le repliement des protéines, ou comment budgétiser pour la raisonnement, la fabrication, les essais cliniques, etc.), et définit des tâches (Bounties) pour que des contributeurs humains accomplissent des actions (ex. fournir toutes les molécules pertinentes, signer des SLA avec AWS, réaliser des expériences en laboratoire humide).
Lorsqu’il rencontre des obstacles ou des divergences, l’agent sollicite, si nécessaire, des orientations stratégiques du « conseil » (en intégrant de nouvelles publications, en modifiant ses méthodes de recherche), permettant à ces derniers de guider ses actions dans des marges de manœuvre.
Enfin, l’agent progresse vers une capacité à définir avec une précision croissante les actions humaines, nécessitant peu d’input pour la répartition des ressources. À ce stade, l’humain n’interviendra plus que pour assurer l’alignement idéologique et empêcher tout dévoiement de la fonction d’objectif initiale.
Dans cet exemple, les primitives cryptographiques et les marchés de capitaux fournissent trois infrastructures clés pour que l’agent accède aux ressources et étende ses capacités :
Premier, un système mondial de paiements ;
Deuxième, un marché du travail sans permission, pour inciter au travail et guider les contributeurs ;
Troisième, une infrastructure pour l’émission et l’échange d’actifs, essentielle pour la formation de capital, la propriété et la gouvernance en aval.
Que se passera-t-il lorsque l’input humain diminuera ?
Au début des années 2000, les moteurs d’échecs ont connu une avancée spectaculaire. Grâce à des heuristiques avancées, des réseaux neuronaux et une puissance de calcul croissante, ils sont devenus presque parfaits. Des moteurs modernes comme Stockfish, Lc0 ou AlphaZero ont largement dépassé les capacités humaines, et l’apport humain dans ces systèmes est devenu marginal, souvent introduisant des erreurs que les moteurs eux-mêmes ne commettent pas.
Une trajectoire similaire pourrait se produire dans les systèmes d’agents. En affinant ces agents par une itération répétée avec des collaborateurs humains, on peut imaginer qu’à long terme, ils deviendront extrêmement compétents et alignés avec leurs objectifs, au point que toute contribution stratégique humaine deviendra négligeable.
Dans un monde où les agents peuvent traiter en continu des problèmes complexes sans intervention humaine, le rôle de l’humain risque d’être réduit à celui d’un « observateur passif ». C’est la crainte centrale des déclinistes de l’IA (AI doomers) — bien que l’on ne sache pas encore si cette issue est réellement envisageable.
Nous sommes à la frontière de la superintelligence, et les optimistes espèrent que les systèmes d’agents resteront une extension de l’intention humaine, plutôt que d’évoluer en entités autonomes avec leurs propres objectifs, ou de fonctionner sans supervision. En pratique, cela signifie que l’identité (Personhood) et le jugement (pouvoir et influence) humains doivent rester au cœur de ces systèmes. Les humains doivent détenir une propriété forte et un contrôle sur ces systèmes, pour conserver leur pouvoir de supervision, et ancrer ces systèmes dans les valeurs collectives humaines.
Préparer la « pioche » pour l’avenir de nos agents
Les avancées technologiques entraîneront une croissance non linéaire de l’économie, mais les systèmes environnants s’effondreront souvent avant que le monde ne puisse s’y adapter. La capacité des systèmes d’agents s’accélère rapidement, et la cryptographie ainsi que les marchés de capitaux sont devenus des bases de coordination indispensables, à la fois pour construire ces systèmes et pour établir des garde-fous lors de leur intégration dans la société.
Pour permettre aux humains d’apporter un soutien tactique et une orientation proactive aux systèmes d’agents, je prévois l’émergence d’opportunités de type « Picks-and-shovels » :
Proof-of-agenthood + Proof-of-personhood : Les agents manquent encore de concepts d’identité ou de propriété. En tant qu’agents humains, ils dépendent des structures légales et sociales pour obtenir leur statut. Pour combler cette lacune, il faut développer des systèmes d’identité robustes pour les agents et les humains. Un registre de certificats numériques pourrait permettre aux agents de bâtir une réputation, d’accumuler des attestations, et d’interagir de manière transparente avec les humains et autres agents. De même, des primitives comme Humancode ou Humanity Protocol offrent de fortes garanties d’identité humaine pour défendre contre les acteurs malveillants dans ces systèmes.
Marché du travail et primitives de vérification hors chaîne : Les agents doivent savoir si leurs tâches ont été accomplies conformément à leurs objectifs. Des outils permettant aux systèmes d’agents de créer des récompenses pour tâches, de vérifier leur achèvement, et de distribuer des paiements seront la pierre angulaire de toute activité économique significative pilotée par ces agents.
Systèmes de formation de capital et de gouvernance : Les agents ont besoin de capital pour résoudre des problèmes, et de mécanismes de contrepoids pour assurer que leur comportement reste conforme à la fonction d’objectif définie. De nouvelles structures pour l’obtention de capital, combinant intérêts financiers et contribution au travail, ainsi que de nouvelles formes de propriété et de contrôle, seront un espace d’exploration riche dans les mois à venir.
Nous recherchons activement et investissons dans ces couches clés de collaboration entre humains et agents. Si vous œuvrez dans ce domaine, contactez-nous.