
Le throughput, en contexte blockchain, correspond au nombre de transactions qu’un réseau est en mesure de traiter dans un intervalle de temps donné, généralement exprimé en Transactions Par Seconde (TPS). Indice clé pour évaluer la performance des réseaux blockchain, le throughput influe directement sur l’expérience utilisateur et l’efficacité du réseau, servant de critère déterminant pour apprécier la capacité de passage à l’échelle d’un système blockchain. Dans l’écosystème des cryptomonnaies en mutation, l’atteinte d’un throughput élevé est devenue une cible technologique essentielle, alimentant la compétition entre projets blockchain, notamment pour les chaînes publiques visant à supporter des applications commerciales massives.
Le concept de throughput est issu de l’informatique classique et de l’ingénierie réseau, où il désigne la capacité de traitement de données d’un système. Aux débuts de la blockchain, Bitcoin affichait un throughput d’environ 7 TPS, bien inférieur à celui de systèmes de paiement traditionnels comme Visa (qui dépasserait 24 000 TPS). Ce décalage a incité la communauté blockchain à privilégier l’optimisation du throughput réseau.
Avec la progression de la technologie blockchain et la diversification des usages — notamment après la congestion du réseau Ethereum causée par les applications décentralisées telles que CryptoKitties en 2017-2018 —, les enjeux liés au throughput sont devenus particulièrement sensibles. De nombreuses solutions ont alors émergé : sharding, sidechains, state channels, solutions de scaling Layer-2, mais aussi le développement de nouvelles blockchains publiques à haute performance.
Au fil du temps, le throughput s’est imposé comme un critère central de différenciation dans la compétition entre projets blockchain, allant bien au-delà d’un simple indicateur technique pour devenir un véritable levier d’évaluation de la valeur pratique.
Le throughput d’un réseau blockchain dépend de plusieurs facteurs fondamentaux :
Taille des blocs et temps de bloc : Le nombre de transactions par bloc (fonction de la taille du bloc) et la fréquence de création des blocs (fonction du temps de bloc) déterminent directement le throughput. Accroître la taille des blocs et réduire le temps de bloc peuvent améliorer le throughput, mais cela augmente aussi les délais de propagation réseau et le risque de forks.
Efficacité de l’algorithme de consensus : Les mécanismes de consensus influencent fortement le throughput. Proof of Work (PoW) présente généralement un throughput plus bas, tandis que Delegated Proof of Stake (DPoS), Practical Byzantine Fault Tolerance (PBFT) ou d’autres algorithmes similaires permettent d’atteindre des niveaux bien supérieurs.
Efficacité de vérification et d’exécution des transactions : La complexité du calcul lors de la vérification des signatures, des mises à jour d’état ou de l’exécution des smart contracts affecte directement la rapidité de traitement.
Topologie réseau et protocoles de propagation : La répartition des nœuds, leur connectivité et les protocoles de propagation des blocs déterminent la vitesse de synchronisation des nouvelles transactions et blocs sur l’ensemble du réseau.
Limites matérielles : Les performances matérielles des machines hébergeant les nœuds, la bande passante réseau et les autres contraintes physiques fixent une limite structurelle au throughput.
Pour accroître le throughput, les approches techniques regroupent les optimisations on-chain (amélioration du consensus, augmentation de la capacité des blocs, etc.) et le scaling off-chain (solutions Layer-2, sidechains, state channels), chaque méthode présentant ses avantages, ses limites et ses cas d’application.
Rechercher un throughput toujours plus élevé expose à plusieurs risques :
Compromis entre décentralisation et sécurité : Les solutions à haut throughput privilégient souvent la performance au détriment du nombre de validateurs ou de la complexité du consensus, ce qui peut renforcer la centralisation et affaiblir la sécurité.
Gonflement de l’état : Une vitesse de traitement accrue entraîne une croissance rapide des données d’état de la blockchain, augmentant la pression sur le stockage des nœuds complets.
Risque de partitionnement réseau : Des blocs plus volumineux ou une fréquence de production accrue peuvent entraîner une augmentation de la latence réseau, favorisant l’apparition de partitions temporaires.
Concurrence sur les ressources : En période de surcharge, les utilisateurs peuvent devoir payer des frais de transaction supérieurs pour bénéficier d’une priorité de traitement, ce qui renchérit l’utilisation du réseau.
Compatibilité inter-chaînes : Les blockchains qui n’ont pas le même niveau de throughput rencontrent des difficultés d’interopérabilité et de synchronisation.
Problèmes de conformité réglementaire : Un throughput très élevé rend plus délicat le suivi des transactions on-chain et la mise en œuvre des exigences KYC/AML.
En pratique, il est essentiel pour les projets blockchain de trouver le juste équilibre entre throughput, décentralisation et sécurité, en tenant compte des usages visés et des besoins des utilisateurs, au lieu de viser le seul maximum de throughput.
Le throughput constitue un repère majeur des progrès de la blockchain vers l’adoption à grande échelle et reflète la capacité de passage à l’échelle dans le « triangle impossible » (décentralisation, sécurité, scalabilité). Grâce aux innovations, la combinaison des optimisations Layer-1 et des solutions de scaling Layer-2 permet d’augmenter progressivement le throughput réel des réseaux blockchain, rapprochant leurs performances de celles des systèmes centralisés classiques. À terme, avec la maturation de technologies telles que le sharding ou l’interopérabilité inter-chaînes, les blockchains devraient offrir un throughput compatible avec les exigences des applications commerciales massives, tout en préservant décentralisation et sécurité, ouvrant ainsi la voie à une adoption généralisée de la technologie blockchain.


