Déclaration : Cet article est une republication. Les lecteurs peuvent obtenir plus d’informations via le lien original. Si l’auteur a une objection concernant la forme de republication, veuillez nous contacter, nous modifierons selon ses demandes. La republication est uniquement destinée au partage d’informations, ne constitue aucun conseil en investissement, et ne reflète pas le point de vue ou la position de Wu Shuo.
La plus grande tendance de ce siècle peut être résumée par “Internet est devenu une réalité quotidienne”. De l’email à la messagerie instantanée, de la finance numérique au suivi de la santé, jusqu’à l’arrivée prochaine de l’interface cerveau-machine, notre vie quotidienne est en pleine digitalisation. Cependant, cette digitalisation apporte d’énormes opportunités mais aussi des risques considérables. Vitalik Buterin explore en profondeur dans cet article pourquoi nous devons réaliser une véritable ouverture et vérifiabilité dans toute la pile technologique (logiciels, matériels et biotechnologies), et comment construire un avenir numérique plus sûr, plus libre et plus égalitaire.
Internet, c’est la vie réelle
La tendance la plus marquante de ce siècle peut être résumée par “Internet est devenu une réalité quotidienne”. Elle a commencé avec l’email et la messagerie instantanée. Des milliers d’années durant lesquelles des conversations privées se faisaient oralement, par écrit ou à l’aide de notes, sont désormais gérées via une infrastructure numérique. Ensuite, nous avons vu émerger la finance numérique — à la fois la finance cryptographique et la digitalisation de la finance traditionnelle. Puis, notre santé : grâce aux smartphones, aux montres de suivi de santé personnelles, et aux données déduites de nos comportements d’achat, diverses informations sur notre corps sont traitées par des ordinateurs et réseaux. Au cours des vingt prochaines années, je prévois que cette tendance s’étendra à d’autres domaines, y compris divers processus gouvernementaux (jusqu’aux votes), la surveillance des indicateurs physiques et biologiques de l’environnement public, et finalement, via l’interface cerveau-machine, nos propres pensées.
Je pense que ces tendances sont inévitables ; leurs bénéfices sont trop grands. Dans un environnement mondial hautement compétitif, une civilisation refusant ces technologies perdra d’abord en compétitivité, puis en souveraineté. Cependant, au-delà de leurs avantages, ces technologies modifient profondément la dynamique du pouvoir à l’intérieur des États et entre eux.
Les civilisations qui tirent le plus profit des nouvelles vagues technologiques ne sont pas celles qui se concentrent uniquement sur la consommation, mais celles qui innovent dans la production. L’accès égalitaire aux plateformes centralisées et aux API ne peut fournir qu’une petite partie de ces bénéfices, et échouera hors de la “normalité” prévue. De plus, cet avenir implique une grande confiance dans la technologie. Si cette confiance est trahie (par exemple, par des portes dérobées ou des failles de sécurité), cela pose de vrais problèmes. Même la simple possibilité que cette confiance soit compromise oblige à revenir à des modèles de confiance sociale fondés sur l’exclusion (“Est-ce que cette chose a été construite par quelqu’un en qui j’ai confiance ?”). Cela crée une incitation à la centralisation : le souverain est celui qui décide des exceptions.
Pour éviter ces problèmes, il faut des technologies dans toute la pile — logiciels, matériels et biotechnologies — qui possèdent deux qualités interdépendantes : une véritable ouverture (open source, licences libres) et une vérifiabilité (idéalement, une vérification directe par l’utilisateur final).
Internet, c’est la vie réelle. Nous voulons qu’il devienne une utopie, pas une dystopie.
L’importance de l’ouverture et de la vérifiabilité dans la santé
Nous avons vu lors de la pandémie de COVID-19 les conséquences d’un accès inégal aux moyens de production technologique. Les vaccins ont été produits dans peu de pays, ce qui a entraîné de grandes disparités dans le délai d’accès selon les nations. Les pays plus riches ont obtenu les premiers vaccins en 2021, d’autres en 2022 ou 2023 avec des vaccins de moindre qualité. Des initiatives ont été lancées pour garantir un accès équitable, mais étant donné que la fabrication des vaccins dépend de procédés capitalistiques propriétaires concentrés dans peu de mains, ces initiatives ont leurs limites.
Couverture vaccinale COVID-19 2021-2023
Un autre problème majeur des vaccins est leur opacité scientifique et leur stratégie de communication, qui tentent de faire croire au public qu’ils sont sans risque ou infaillibles, ce qui est faux et alimente la méfiance. Aujourd’hui, cette méfiance s’est intensifiée, donnant l’impression d’un rejet de la science depuis un demi-siècle.
En réalité, ces deux problèmes peuvent être résolus. Des vaccins comme ceux financés par Balvi ou PopVax ont des coûts de développement plus faibles, une fabrication plus ouverte, réduisent l’inégalité d’accès, et facilitent l’analyse et la vérification de leur sécurité et efficacité. Nous pouvons aller plus loin dans la conception de vaccins vérifiables.
Des problématiques similaires existent dans la biotechnologie numérique. Lorsqu’on discute avec des chercheurs en longévité, on entend souvent que l’avenir de la médecine anti-âge sera personnalisé et basé sur les données. Pour recommander un traitement ou un changement nutritionnel aujourd’hui, il faut connaître l’état actuel du corps de la personne. La collecte et le traitement en temps réel de grandes quantités de données numériques rendraient cela encore plus efficace.
Internet, c’est la vie réelle. Nous voulons qu’il devienne une utopie, pas une dystopie.
Il en va de même pour les biotechnologies défensives visant à prévenir les risques, comme la lutte contre les pandémies. Plus une maladie est détectée tôt, plus il est probable de l’arrêter à la source — même si ce n’est pas toujours possible, chaque semaine supplémentaire donne plus de temps pour se préparer et élaborer des stratégies. Pendant une pandémie, connaître en temps réel où les gens tombent malades permet de déployer rapidement des mesures. Si une personne infectée sait qu’elle l’est et s’isole en une heure, cela réduit la risque de transmission de 72 fois par rapport à une infection de plusieurs jours. Si l’on identifie les 20 % de lieux responsables de 80 % de la propagation, améliorer la qualité de l’air dans ces zones peut apporter des bénéfices supplémentaires. Tout cela nécessite (i) un grand nombre de capteurs, et (ii) leur capacité à communiquer en temps réel pour alimenter d’autres systèmes.
En avançant vers le “science-fiction”, on rencontre l’interface cerveau-machine, qui pourrait décupler la productivité, aider à mieux comprendre autrui par télépathie, et ouvrir une voie plus sûre vers une intelligence artificielle très avancée.
Si les infrastructures de suivi de la santé (personnelle et spatiale) sont propriétaires, les données finiront par être contrôlées par de grandes entreprises. Ces entreprises peuvent construire des applications sur cette base, mais d’autres ne peuvent pas. Elles peuvent fournir un accès via API, mais celui-ci sera limité, utilisé pour des monopoles, et peut être coupé à tout moment. Cela signifie que quelques individus ou entreprises auront accès aux composants clés de la technologie du XXIe siècle, ce qui limite qui peut en tirer profit économiquement.
D’un autre côté, si ces données personnelles de santé ne sont pas sécurisées, des hackers peuvent vous extorquer en exploitant un problème de santé, ajuster les prix des assurances et soins pour en tirer profit, ou connaître votre localisation pour vous kidnapper. Par ailleurs, votre position (très souvent piratée) peut être utilisée pour déduire des informations sur votre santé. Si votre BCI est piraté, cela signifie que des acteurs hostiles peuvent littéralement lire (ou pire, écrire) dans votre esprit. Ce n’est plus de la science-fiction : voir ici comment une attaque par piratage de BCI peut faire perdre à quelqu’un le contrôle de ses mouvements.
En résumé, il y a d’énormes bénéfices mais aussi de grands risques : mettre l’accent sur l’ouverture et la vérifiabilité est une excellente façon d’atténuer ces risques.
L’importance de l’ouverture et de la vérifiabilité dans les technologies numériques personnelles et commerciales
Plus tôt ce mois-ci, j’ai dû remplir et signer un formulaire pour une fonction légale. J’étais hors du pays. Il existe un système national de signature électronique, mais je ne l’avais pas configuré. J’ai dû imprimer le formulaire, le signer, aller à DHL, remplir à la main, puis payer pour l’expédier à l’autre bout du monde. Temps nécessaire : une demi-heure, coût : 119 dollars. La même journée, je devais signer une transaction (numérique) pour exécuter une opération sur la blockchain Ethereum. Temps : 5 secondes, coût : 0,10 dollar (sans blockchain, la signature aurait été totalement gratuite).
Ces histoires sont courantes dans la gouvernance d’entreprise ou à but non lucratif, la gestion de la propriété intellectuelle, etc. Au cours des dix dernières années, on en trouve dans une grande partie des pitchs de startups blockchain. Au-delà, il y a la mère de tous les cas d’usage : l’exercice numérique de l’autorité personnelle : paiements et finance.
Bien sûr, tout cela comporte de grands risques : que faire si le logiciel ou le matériel est piraté ? C’est un risque que le secteur cryptographique a vite compris : la blockchain est permissionless et décentralisée, donc si vous perdez l’accès à vos fonds, il n’y a pas de ressource ou d’oncle dans le ciel pour vous aider. Ce n’est pas vos clés, ce n’est pas votre crypto. C’est pourquoi, dans ses débuts, la cryptographie a pensé à la multisignature et aux portefeuilles de récupération sociale, ainsi qu’aux hardware wallets. Cependant, dans la pratique, de nombreux cas manquent d’un “oncle dans le ciel” fiable — ce n’est pas une question idéologique, mais une réalité inhérente à certains scénarios. Même dans la finance traditionnelle, la majorité des victimes d’arnaques ne récupèrent qu’une petite partie de leurs pertes. Pour la gestion de données personnelles, même en principe, la fuite ne peut pas être réparée. Nous avons donc besoin d’une vérifiabilité et d’une sécurité véritablement robustes — pour le logiciel et le matériel final.
Une proposition pour vérifier la fabrication correcte d’un microprocesseur
Il est crucial, dans le cas du matériel, de comprendre que les risques que l’on cherche à éviter dépassent largement la simple question “le fabricant est-il maléfique ?”. Le vrai problème, c’est qu’il existe de nombreux dépendances, la plupart étant propriétaires, et qu’un seul oubli peut entraîner des résultats de sécurité inacceptables. Cet article montre des exemples récents où la conception microarchitecture peut compromettre la résistance aux attaques par canaux, même dans un modèle où seul le logiciel est considéré comme sûr. Des attaques comme EUCLEAK dépendent de la difficulté à repérer des vulnérabilités dues à la propriété des composants. Si un modèle d’IA est entraîné sur du matériel compromis, il peut intégrer des portes dérobées lors de l’entraînement.
Un autre problème des systèmes fermés et centralisés, même s’ils sont parfaitement sécurisés, est leur inconvénient intrinsèque : la concentration du pouvoir entre les mains d’individus, d’entreprises ou d’États. Si votre infrastructure critique est construite et maintenue par une entreprise d’un État potentiellement hostile, vous êtes vulnérable à des pressions (voir Henry Farrell sur la militarisation de l’interdépendance). C’est précisément le problème que la cryptographie cherche à résoudre — mais elle s’étend à bien plus que la finance.
L’importance de l’ouverture et de la vérifiabilité dans la technologie civique
Je discute souvent avec des personnes qui cherchent à imaginer de meilleures formes de gouvernance pour le XXIe siècle. Certains, comme Audrey Tang, tentent d’élever des systèmes politiques fonctionnels à un niveau supérieur, en donnant plus de pouvoir aux communautés open source locales, en utilisant des mécanismes comme les assemblées citoyennes, le tirage au sort ou la double majorité. D’autres repartent de zéro : voici une proposition récente de constitution pour la Russie, élaborée par des politologues russes, qui garantit une forte liberté individuelle, une autonomie locale, une forte orientation pacifiste, et une démocratie directe sans précédent. D’autres encore, comme des économistes spécialisés dans la taxe foncière ou la tarification de la congestion, cherchent à améliorer l’économie de leur pays.
Chacun peut avoir des degrés d’enthousiasme différents pour ces idées. Mais tous ont en commun un besoin d’engagement à haute capacité : toute mise en œuvre concrète doit être numérique. Le papier et le stylo suffisent pour enregistrer qui possède quoi, et pour les élections tous les quatre ans, mais pour tout ce qui exige une participation à plus haut débit ou fréquence, ce n’est pas suffisant.
Historiquement, la confiance dans des idées comme le vote électronique a été sceptique, voire hostile. Voici un bon résumé d’un cas d’opposition à la votation électronique. Ce document cite :
“Premièrement, la technologie est une ‘boîte noire’, ce qui signifie que le public n’a pas accès au logiciel contrôlant la machine à voter. Bien que les entreprises protègent leur logiciel contre la fraude (et pour battre la concurrence), cela empêche aussi le public de savoir comment fonctionne le logiciel de vote. Manipuler le logiciel pour produire des résultats frauduleux serait simple. De plus, les fournisseurs de machines sont en concurrence, sans garantie que leurs machines soient conçues dans l’intérêt des électeurs et de la précision des votes.”
De nombreux cas réels prouvent que cette méfiance est justifiée.
Analyse critique du vote électronique en Estonie 2014
Ces arguments s’appliquent à toutes les autres situations. Mais je prévois qu’avec l’avancement technologique, la réponse “on ne fait pas du tout” deviendra de plus en plus irréaliste dans de nombreux domaines. Le monde devient plus efficace grâce à la technologie (pour le meilleur ou pour le pire), et je prévois que tout système qui ne suit pas cette tendance deviendra de plus en plus déconnecté des affaires personnelles et collectives. Nous avons besoin d’une alternative : faire vraiment ce qui est difficile, et trouver comment rendre les solutions technologiques complexes à la fois sûres et vérifiables.
Théoriquement, “sécurité et vérifiabilité” et “open source” sont deux choses différentes. Il est tout à fait possible que quelque chose soit propriétaire et sécurisé : un avion est une technologie très propriétaire, mais le transport aérien commercial reste très sûr. Mais ce qu’un modèle propriétaire ne peut pas réaliser, c’est la connaissance partagée de la sécurité — la capacité à faire confiance à des acteurs qui ne se font pas mutuellement confiance.
Les systèmes civiques comme les élections sont des cas où la sécurité par connaissance partagée est cruciale. Un autre exemple est la collecte de preuves en justice. Récemment, dans le Massachusetts, de nombreux résultats de tests de respiration pour l’alcoolémie ont été invalidés parce que des informations sur des défaillances de test ont été dissimulées. Voici un extrait :
“Alors, tous les résultats sont-ils défectueux ? Non. En fait, dans la majorité des cas, les tests de respiration n’ont pas de problème de calibration. Mais, après enquête, il a été découvert que le laboratoire criminel de l’État avait dissimulé des preuves, révélant que le problème était plus étendu que ce qu’ils avaient dit. Le juge Frank Gaziano a écrit que tous ces procès avaient violé les droits procéduraux des accusés.”
Le respect de la procédure en justice est un domaine où la sécurité par connaissance partagée est essentielle — car sans connaissance partagée, la justice peut rapidement devenir une spirale d’auto-défense.
Au-delà de la vérifiabilité, l’ouverture a aussi ses bénéfices intrinsèques. Elle permet aux communautés locales de concevoir des systèmes de gouvernance, d’identité et autres besoins, en accord avec leurs objectifs. Si un système de vote est propriétaire, il sera plus difficile pour un pays (ou une région, ou une ville) d’expérimenter de nouvelles approches : ils devront soit convaincre une entreprise de mettre en œuvre leurs règles préférées, soit tout refaire eux-mêmes, ce qui coûte cher. Cela augmente le coût de l’innovation politique.
Dans ces domaines, une approche plus open source, avec une éthique hacker, donnerait plus d’autonomie aux acteurs locaux, qu’ils soient individuels, gouvernementaux ou d’entreprises. Pour que cela soit possible, il faut que les outils ouverts soient largement disponibles, que l’infrastructure et les codes soient libres, pour que d’autres puissent construire dessus. Pour minimiser le pouvoir concentré, le copyleft est particulièrement précieux.
Le dernier domaine clé pour la technologie civique dans les années à venir est la sécurité physique. Les caméras de surveillance ont proliféré ces vingt dernières années, suscitant de nombreuses inquiétudes sur la vie privée. Malheureusement, je prévois que la montée récente des drones de guerre rendra “ne pas faire de haute technologie pour la sécurité” de moins en moins viable. Même si un pays ne viole pas la vie privée, si ses lois ne protègent pas contre des attaques d’États ou de groupes hostiles, cela ne sert à rien. Les drones rendent ces attaques beaucoup plus faciles. Il faut donc des contre-mesures, notamment des systèmes anti-drones et des capteurs.
Si ces outils sont propriétaires, la collecte de données sera opaque et centralisée. Si ces outils sont ouverts et vérifiables, nous pourrons adopter de meilleures méthodes : des dispositifs qui ne sortent qu’une quantité limitée de données, puis les suppriment, avec une preuve vérifiable. Nous pourrions envisager un futur de sécurité physique numérique, ressemblant à un chien de garde numérique plutôt qu’à une prison panoramique. Les dispositifs de surveillance publics pourraient être open source et vérifiables, avec un cadre légal permettant à quiconque de vérifier aléatoirement leur fonctionnement. Des clubs d’informatique universitaires pourraient en faire un exercice pédagogique.
L’approche open source et vérifiable
Nous ne pouvons pas éviter que tous les aspects de la vie (individuelle et collective) soient profondément imbriqués dans des systèmes informatiques numériques. Par défaut, nous risquons d’avoir des systèmes construits et exploités par des entreprises centralisées, motivées par le profit pour une minorité, avec des portes dérobées gouvernementales, que la majorité ne peut ni comprendre ni vérifier. Mais nous pouvons avancer vers de meilleures alternatives. Imaginez un monde :
· où vous avez un appareil personnel sécurisé — avec fonctionnalités de smartphone, sécurité d’un hardware wallet cryptographique, et une vérifiabilité mécanique comparable à une montre de luxe ;
· où toutes vos applications de messagerie sont chiffrées, utilisant un routage par mixnet, avec tout le code formellement vérifié. Vous pouvez être certain que vos communications privées restent privées ;
· où votre argent est sous contrôle via des actifs ERC20 standardisés (ou équivalents) enregistrés sur la blockchain ou sur des serveurs certifiés, et que vous pouvez récupérer si vous perdez votre appareil, via une combinaison d’autres appareils, membres de la famille, amis ou institutions (pas forcément l’État : si c’est facile pour n’importe qui, même une église pourrait le faire) ;
· où l’infrastructure de base open source, comme Starlink, vous donne une connectivité mondiale robuste sans dépendre d’acteurs centralisés ;
· où votre appareil utilise un LLM open source, avec poids vérifiables, pour analyser votre activité, vous conseiller, faire des suggestions, et vous alerter en cas d’erreur ou de risque ;
· où vous portez en permanence un dispositif de suivi de santé personnel, open source et vérifiable, qui vous donne accès à vos données et garantit qu’aucune personne ou entité ne peut y accéder sans votre consentement ;
· où nous disposons de formes de gouvernance avancées, combinant tirage au sort, assemblées citoyennes, double majorité, et une sélection d’experts pour définir les objectifs et leur mise en œuvre. En tant qu’utilisateur, vous pouvez avoir la certitude que le système applique bien les règles telles que vous les comprenez ;
· où l’espace public est équipé de capteurs pour suivre des variables biologiques (niveau de CO2, AQI, présence de maladies aériennes, eaux usées), et où ces dispositifs (y compris caméras et drones de surveillance) sont open source, vérifiables, encadrés par la loi, et contrôlés par le public ;
· c’est un monde où la sécurité, la liberté et l’accès économique mondial sont renforcés. Mais pour y parvenir, il faut investir dans des technologies avancées : cryptographie ZK-SNARK, chiffrement homomorphe complet, obfuscation, etc., qui permettent de faire des calculs sur des données dans un environnement multi-parties, avec des garanties sur le résultat, tout en maintenant la confidentialité des données et des calculs. Ces outils permettent des applications de confidentialité renforcée. Des outils proches de la cryptographie, comme la blockchain pour garantir l’intégrité des données et l’absence d’exclusion, ou la privacy différentielle pour ajouter du bruit aux données, sont aussi pertinents ici.
· des applications et des systèmes sécurisés pour l’utilisateur. Les applications ne sont sûres que si leurs garanties de sécurité sont compréhensibles et vérifiables par l’utilisateur. Cela implique des frameworks logiciels facilitant la construction d’applications à propriétés de sécurité fortes. Cela implique aussi que le navigateur, le système d’exploitation, et d’autres intermédiaires (par exemple, un observateur LLM local) puissent vérifier l’intégrité des applications, évaluer leur risque, et présenter ces informations à l’utilisateur.
· la vérification formelle. Nous pouvons utiliser des preuves automatiques pour vérifier que les programmes respectent nos propriétés, comme l’absence de fuite de données ou la résistance à la modification par des tiers non autorisés. Lean est récemment devenu un langage populaire pour cela. Ces techniques ont déjà été appliquées pour vérifier des algorithmes de ZK-SNARK sur la machine virtuelle Ethereum (EVM) et d’autres cas à haute valeur et risque élevé, et leur usage s’étend. Mais il faut aussi progresser dans d’autres pratiques de sécurité plus classiques.
Les illusions de la cybersécurité des années 2000 étaient erronées : les vulnérabilités (et portes dérobées) peuvent être surmontées. Il suffit d’apprendre à faire passer la sécurité avant d’autres objectifs.
· Systèmes d’exploitation open source et sécuritaires. De plus en plus, ils apparaissent : GrapheneOS comme version sécuritaire d’Android, le noyau minimaliste Asterinas, HarmonyOS de Huawei (avec une version open source) utilisant la vérification formelle (je prévois que beaucoup penseront “si c’est Huawei, il y a forcément une porte dérobée”, mais c’est passer à côté de l’essentiel : tant que c’est open source, tout le monde peut vérifier, et le fabricant n’a pas d’importance. C’est un bon exemple de comment l’ouverture et la vérifiabilité peuvent lutter contre la Balkanisation mondiale). Le hardware sécurisé open source. Si vous ne pouvez pas être sûr que votre hardware exécute réellement le logiciel, et qu’il ne fuit pas de données en secret, alors aucun logiciel n’est sûr. Sur ce point, deux objectifs à court terme m’intéressent particulièrement :
· un appareil personnel sécurisé — que la communauté crypto appelle “hardware wallet”, que les amateurs open source appellent “téléphone sécurisé”, et qui, une fois que vous comprenez la nécessité de sécurité et de généralité, convergeront vers la même chose ;
· une infrastructure physique pour l’espace public — serrures intelligentes, dispositifs de surveillance biologique décrits ci-dessus, et autres technologies “Internet des objets”. Nous devons pouvoir leur faire confiance. Cela nécessite open source et vérifiabilité.
· développer une chaîne d’outils open source pour la fabrication hardware sécurisée. Aujourd’hui, la conception hardware dépend d’une série de dépendances propriétaires, ce qui augmente considérablement le coût et limite la licence. Cela rend aussi la vérification hardware difficile : si l’outil de conception de puces est fermé, on ne sait pas ce qu’on vérifie. Même des outils comme la chaîne de scan existante sont souvent inutilisables en pratique, car trop de composants sont propriétaires. Tout cela peut changer.
· vérification hardware (ex. IRIS, scans X-ray). Il faut des méthodes pour scanner les puces afin de vérifier qu’elles ont bien la logique attendue, et qu’aucun composant supplémentaire permettant une altération ou une extraction de données non autorisée n’a été ajouté. Cela peut se faire de façon non destructive : un auditeur commande au hasard un produit contenant une puce, puis l’ouvre et vérifie la logique. Avec IRIS ou X-ray, cela peut se faire sans détruire le composant, permettant de scanner chaque puce.
· dispositifs open source, peu coûteux, locaux, et de surveillance biologique. La communauté et les individus doivent pouvoir mesurer leur environnement et leur propre santé, et identifier les risques biologiques. Cela inclut diverses technologies : dispositifs médicaux personnels comme OpenWater, capteurs de qualité de l’air, capteurs de maladies aériennes (Varro, etc.), et surveillance environnementale à plus grande échelle.
L’ouverture et la vérifiabilité à chaque niveau de la pile technologique
De là à là-bas
La différence clé avec une vision plus “traditionnelle” de la technologie, c’est que celle-ci est plus favorable à la souveraineté locale, à l’autonomie et à la liberté individuelle. La sécurité ne consiste pas à fouiller le monde entier pour s’assurer qu’il n’y a pas de méchants, mais à rendre chaque niveau du monde plus robuste. L’ouverture signifie que chaque couche de la construction et de l’amélioration technologique doit être ouverte, pas seulement l’accès centralisé via API. La vérifiabilité n’est pas réservée à des “cachets” propriétaires, qui pourraient être corrompus par des acteurs malveillants — c’est un droit du peuple, encouragé socialement.
Je crois que cette vision est plus robuste, mieux adaptée à notre monde fragmenté du XXIe siècle. Mais nous n’avons pas de temps infini pour la réaliser. La tendance à la centralisation accrue des données, aux portes dérobées, et à la simplification de la vérification à “est-ce que c’est fait par un développeur ou un fabricant de confiance” progresse rapidement. Les tentatives de véritable accès ouvert ont duré des décennies. Elles ont commencé avec Facebook et internet.org, et continueront, chaque tentative étant plus complexe que la précédente. Il faut agir vite pour rivaliser avec ces approches, et prouver aux individus et aux institutions qu’une meilleure solution est possible.
Si nous parvenons à réaliser cette vision, on peut la voir comme une forme de rétro-futurisme : d’un côté, on bénéficie d’une technologie plus puissante, permettant d’améliorer la santé, d’organiser la société de façon plus résiliente, et de se protéger contre de nouvelles menaces ; de l’autre, on revient à un monde où chaque personne possède une seconde nature, comme en 1900 : une infrastructure gratuite, modifiable, vérifiable, que chacun peut ouvrir, comprendre, et adapter à ses besoins, et où tout le monde peut participer, non seulement comme consommateur ou “développeur d’applications”, mais aussi en étant sûr que l’appareil fait ce qu’il dit, à chaque couche de la pile technologique.
La conception pour la vérifiabilité a un coût : de nombreux optimisations hardware et software offrent des gains de vitesse très demandés, mais rendent la conception plus difficile à comprendre ou plus fragile. L’open source complique la monétisation dans beaucoup de modèles commerciaux. Je crois que ces deux problèmes sont exagérés — mais ce n’est pas quelque chose que le monde pourra changer du jour au lendemain. La question est : quels sont les objectifs à court terme réalistes ?
Je propose une réponse : s’efforcer de construire une pile technologique entièrement open source et vérifiable, adaptée aux applications à haute sécurité, non critiques en termes de performance — pour les consommateurs comme pour les institutions, pour le long et le court terme. Cela inclut le hardware, le software, et la biotechnologie. La majorité des calculs réellement critiques en sécurité n’ont pas besoin d’être ultra rapides, et même dans ce cas, il existe souvent des moyens de combiner des composants performants mais non fiables, avec des composants fiables mais moins rapides, pour atteindre un bon compromis entre performance et confiance. Rendre tout cela parfaitement sécurisé et ouvert est irréaliste. Mais nous pouvons commencer par garantir ces propriétés dans les domaines vraiment cruciaux.
Lien hypertexte dans l’article
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
[26]
[27]
[28]
[29]
[30]
[31]
[14]
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Vitalik article : Pourquoi avons-nous besoin d'un monde ouvert et vérifiable ?
Auteurs : Vitalik
Rédaction & traduction | RuoYan
Lien de l’article original :
Déclaration : Cet article est une republication. Les lecteurs peuvent obtenir plus d’informations via le lien original. Si l’auteur a une objection concernant la forme de republication, veuillez nous contacter, nous modifierons selon ses demandes. La republication est uniquement destinée au partage d’informations, ne constitue aucun conseil en investissement, et ne reflète pas le point de vue ou la position de Wu Shuo.
La plus grande tendance de ce siècle peut être résumée par “Internet est devenu une réalité quotidienne”. De l’email à la messagerie instantanée, de la finance numérique au suivi de la santé, jusqu’à l’arrivée prochaine de l’interface cerveau-machine, notre vie quotidienne est en pleine digitalisation. Cependant, cette digitalisation apporte d’énormes opportunités mais aussi des risques considérables. Vitalik Buterin explore en profondeur dans cet article pourquoi nous devons réaliser une véritable ouverture et vérifiabilité dans toute la pile technologique (logiciels, matériels et biotechnologies), et comment construire un avenir numérique plus sûr, plus libre et plus égalitaire.
Internet, c’est la vie réelle
La tendance la plus marquante de ce siècle peut être résumée par “Internet est devenu une réalité quotidienne”. Elle a commencé avec l’email et la messagerie instantanée. Des milliers d’années durant lesquelles des conversations privées se faisaient oralement, par écrit ou à l’aide de notes, sont désormais gérées via une infrastructure numérique. Ensuite, nous avons vu émerger la finance numérique — à la fois la finance cryptographique et la digitalisation de la finance traditionnelle. Puis, notre santé : grâce aux smartphones, aux montres de suivi de santé personnelles, et aux données déduites de nos comportements d’achat, diverses informations sur notre corps sont traitées par des ordinateurs et réseaux. Au cours des vingt prochaines années, je prévois que cette tendance s’étendra à d’autres domaines, y compris divers processus gouvernementaux (jusqu’aux votes), la surveillance des indicateurs physiques et biologiques de l’environnement public, et finalement, via l’interface cerveau-machine, nos propres pensées.
Je pense que ces tendances sont inévitables ; leurs bénéfices sont trop grands. Dans un environnement mondial hautement compétitif, une civilisation refusant ces technologies perdra d’abord en compétitivité, puis en souveraineté. Cependant, au-delà de leurs avantages, ces technologies modifient profondément la dynamique du pouvoir à l’intérieur des États et entre eux.
Les civilisations qui tirent le plus profit des nouvelles vagues technologiques ne sont pas celles qui se concentrent uniquement sur la consommation, mais celles qui innovent dans la production. L’accès égalitaire aux plateformes centralisées et aux API ne peut fournir qu’une petite partie de ces bénéfices, et échouera hors de la “normalité” prévue. De plus, cet avenir implique une grande confiance dans la technologie. Si cette confiance est trahie (par exemple, par des portes dérobées ou des failles de sécurité), cela pose de vrais problèmes. Même la simple possibilité que cette confiance soit compromise oblige à revenir à des modèles de confiance sociale fondés sur l’exclusion (“Est-ce que cette chose a été construite par quelqu’un en qui j’ai confiance ?”). Cela crée une incitation à la centralisation : le souverain est celui qui décide des exceptions.
Pour éviter ces problèmes, il faut des technologies dans toute la pile — logiciels, matériels et biotechnologies — qui possèdent deux qualités interdépendantes : une véritable ouverture (open source, licences libres) et une vérifiabilité (idéalement, une vérification directe par l’utilisateur final).
Internet, c’est la vie réelle. Nous voulons qu’il devienne une utopie, pas une dystopie.
L’importance de l’ouverture et de la vérifiabilité dans la santé
Nous avons vu lors de la pandémie de COVID-19 les conséquences d’un accès inégal aux moyens de production technologique. Les vaccins ont été produits dans peu de pays, ce qui a entraîné de grandes disparités dans le délai d’accès selon les nations. Les pays plus riches ont obtenu les premiers vaccins en 2021, d’autres en 2022 ou 2023 avec des vaccins de moindre qualité. Des initiatives ont été lancées pour garantir un accès équitable, mais étant donné que la fabrication des vaccins dépend de procédés capitalistiques propriétaires concentrés dans peu de mains, ces initiatives ont leurs limites.
Couverture vaccinale COVID-19 2021-2023
Un autre problème majeur des vaccins est leur opacité scientifique et leur stratégie de communication, qui tentent de faire croire au public qu’ils sont sans risque ou infaillibles, ce qui est faux et alimente la méfiance. Aujourd’hui, cette méfiance s’est intensifiée, donnant l’impression d’un rejet de la science depuis un demi-siècle.
En réalité, ces deux problèmes peuvent être résolus. Des vaccins comme ceux financés par Balvi ou PopVax ont des coûts de développement plus faibles, une fabrication plus ouverte, réduisent l’inégalité d’accès, et facilitent l’analyse et la vérification de leur sécurité et efficacité. Nous pouvons aller plus loin dans la conception de vaccins vérifiables.
Des problématiques similaires existent dans la biotechnologie numérique. Lorsqu’on discute avec des chercheurs en longévité, on entend souvent que l’avenir de la médecine anti-âge sera personnalisé et basé sur les données. Pour recommander un traitement ou un changement nutritionnel aujourd’hui, il faut connaître l’état actuel du corps de la personne. La collecte et le traitement en temps réel de grandes quantités de données numériques rendraient cela encore plus efficace.
Internet, c’est la vie réelle. Nous voulons qu’il devienne une utopie, pas une dystopie.
Il en va de même pour les biotechnologies défensives visant à prévenir les risques, comme la lutte contre les pandémies. Plus une maladie est détectée tôt, plus il est probable de l’arrêter à la source — même si ce n’est pas toujours possible, chaque semaine supplémentaire donne plus de temps pour se préparer et élaborer des stratégies. Pendant une pandémie, connaître en temps réel où les gens tombent malades permet de déployer rapidement des mesures. Si une personne infectée sait qu’elle l’est et s’isole en une heure, cela réduit la risque de transmission de 72 fois par rapport à une infection de plusieurs jours. Si l’on identifie les 20 % de lieux responsables de 80 % de la propagation, améliorer la qualité de l’air dans ces zones peut apporter des bénéfices supplémentaires. Tout cela nécessite (i) un grand nombre de capteurs, et (ii) leur capacité à communiquer en temps réel pour alimenter d’autres systèmes.
En avançant vers le “science-fiction”, on rencontre l’interface cerveau-machine, qui pourrait décupler la productivité, aider à mieux comprendre autrui par télépathie, et ouvrir une voie plus sûre vers une intelligence artificielle très avancée.
Si les infrastructures de suivi de la santé (personnelle et spatiale) sont propriétaires, les données finiront par être contrôlées par de grandes entreprises. Ces entreprises peuvent construire des applications sur cette base, mais d’autres ne peuvent pas. Elles peuvent fournir un accès via API, mais celui-ci sera limité, utilisé pour des monopoles, et peut être coupé à tout moment. Cela signifie que quelques individus ou entreprises auront accès aux composants clés de la technologie du XXIe siècle, ce qui limite qui peut en tirer profit économiquement.
D’un autre côté, si ces données personnelles de santé ne sont pas sécurisées, des hackers peuvent vous extorquer en exploitant un problème de santé, ajuster les prix des assurances et soins pour en tirer profit, ou connaître votre localisation pour vous kidnapper. Par ailleurs, votre position (très souvent piratée) peut être utilisée pour déduire des informations sur votre santé. Si votre BCI est piraté, cela signifie que des acteurs hostiles peuvent littéralement lire (ou pire, écrire) dans votre esprit. Ce n’est plus de la science-fiction : voir ici comment une attaque par piratage de BCI peut faire perdre à quelqu’un le contrôle de ses mouvements.
En résumé, il y a d’énormes bénéfices mais aussi de grands risques : mettre l’accent sur l’ouverture et la vérifiabilité est une excellente façon d’atténuer ces risques.
L’importance de l’ouverture et de la vérifiabilité dans les technologies numériques personnelles et commerciales
Plus tôt ce mois-ci, j’ai dû remplir et signer un formulaire pour une fonction légale. J’étais hors du pays. Il existe un système national de signature électronique, mais je ne l’avais pas configuré. J’ai dû imprimer le formulaire, le signer, aller à DHL, remplir à la main, puis payer pour l’expédier à l’autre bout du monde. Temps nécessaire : une demi-heure, coût : 119 dollars. La même journée, je devais signer une transaction (numérique) pour exécuter une opération sur la blockchain Ethereum. Temps : 5 secondes, coût : 0,10 dollar (sans blockchain, la signature aurait été totalement gratuite).
Ces histoires sont courantes dans la gouvernance d’entreprise ou à but non lucratif, la gestion de la propriété intellectuelle, etc. Au cours des dix dernières années, on en trouve dans une grande partie des pitchs de startups blockchain. Au-delà, il y a la mère de tous les cas d’usage : l’exercice numérique de l’autorité personnelle : paiements et finance.
Bien sûr, tout cela comporte de grands risques : que faire si le logiciel ou le matériel est piraté ? C’est un risque que le secteur cryptographique a vite compris : la blockchain est permissionless et décentralisée, donc si vous perdez l’accès à vos fonds, il n’y a pas de ressource ou d’oncle dans le ciel pour vous aider. Ce n’est pas vos clés, ce n’est pas votre crypto. C’est pourquoi, dans ses débuts, la cryptographie a pensé à la multisignature et aux portefeuilles de récupération sociale, ainsi qu’aux hardware wallets. Cependant, dans la pratique, de nombreux cas manquent d’un “oncle dans le ciel” fiable — ce n’est pas une question idéologique, mais une réalité inhérente à certains scénarios. Même dans la finance traditionnelle, la majorité des victimes d’arnaques ne récupèrent qu’une petite partie de leurs pertes. Pour la gestion de données personnelles, même en principe, la fuite ne peut pas être réparée. Nous avons donc besoin d’une vérifiabilité et d’une sécurité véritablement robustes — pour le logiciel et le matériel final.
Une proposition pour vérifier la fabrication correcte d’un microprocesseur
Il est crucial, dans le cas du matériel, de comprendre que les risques que l’on cherche à éviter dépassent largement la simple question “le fabricant est-il maléfique ?”. Le vrai problème, c’est qu’il existe de nombreux dépendances, la plupart étant propriétaires, et qu’un seul oubli peut entraîner des résultats de sécurité inacceptables. Cet article montre des exemples récents où la conception microarchitecture peut compromettre la résistance aux attaques par canaux, même dans un modèle où seul le logiciel est considéré comme sûr. Des attaques comme EUCLEAK dépendent de la difficulté à repérer des vulnérabilités dues à la propriété des composants. Si un modèle d’IA est entraîné sur du matériel compromis, il peut intégrer des portes dérobées lors de l’entraînement.
Un autre problème des systèmes fermés et centralisés, même s’ils sont parfaitement sécurisés, est leur inconvénient intrinsèque : la concentration du pouvoir entre les mains d’individus, d’entreprises ou d’États. Si votre infrastructure critique est construite et maintenue par une entreprise d’un État potentiellement hostile, vous êtes vulnérable à des pressions (voir Henry Farrell sur la militarisation de l’interdépendance). C’est précisément le problème que la cryptographie cherche à résoudre — mais elle s’étend à bien plus que la finance.
L’importance de l’ouverture et de la vérifiabilité dans la technologie civique
Je discute souvent avec des personnes qui cherchent à imaginer de meilleures formes de gouvernance pour le XXIe siècle. Certains, comme Audrey Tang, tentent d’élever des systèmes politiques fonctionnels à un niveau supérieur, en donnant plus de pouvoir aux communautés open source locales, en utilisant des mécanismes comme les assemblées citoyennes, le tirage au sort ou la double majorité. D’autres repartent de zéro : voici une proposition récente de constitution pour la Russie, élaborée par des politologues russes, qui garantit une forte liberté individuelle, une autonomie locale, une forte orientation pacifiste, et une démocratie directe sans précédent. D’autres encore, comme des économistes spécialisés dans la taxe foncière ou la tarification de la congestion, cherchent à améliorer l’économie de leur pays.
Chacun peut avoir des degrés d’enthousiasme différents pour ces idées. Mais tous ont en commun un besoin d’engagement à haute capacité : toute mise en œuvre concrète doit être numérique. Le papier et le stylo suffisent pour enregistrer qui possède quoi, et pour les élections tous les quatre ans, mais pour tout ce qui exige une participation à plus haut débit ou fréquence, ce n’est pas suffisant.
Historiquement, la confiance dans des idées comme le vote électronique a été sceptique, voire hostile. Voici un bon résumé d’un cas d’opposition à la votation électronique. Ce document cite :
“Premièrement, la technologie est une ‘boîte noire’, ce qui signifie que le public n’a pas accès au logiciel contrôlant la machine à voter. Bien que les entreprises protègent leur logiciel contre la fraude (et pour battre la concurrence), cela empêche aussi le public de savoir comment fonctionne le logiciel de vote. Manipuler le logiciel pour produire des résultats frauduleux serait simple. De plus, les fournisseurs de machines sont en concurrence, sans garantie que leurs machines soient conçues dans l’intérêt des électeurs et de la précision des votes.”
De nombreux cas réels prouvent que cette méfiance est justifiée.
Analyse critique du vote électronique en Estonie 2014
Ces arguments s’appliquent à toutes les autres situations. Mais je prévois qu’avec l’avancement technologique, la réponse “on ne fait pas du tout” deviendra de plus en plus irréaliste dans de nombreux domaines. Le monde devient plus efficace grâce à la technologie (pour le meilleur ou pour le pire), et je prévois que tout système qui ne suit pas cette tendance deviendra de plus en plus déconnecté des affaires personnelles et collectives. Nous avons besoin d’une alternative : faire vraiment ce qui est difficile, et trouver comment rendre les solutions technologiques complexes à la fois sûres et vérifiables.
Théoriquement, “sécurité et vérifiabilité” et “open source” sont deux choses différentes. Il est tout à fait possible que quelque chose soit propriétaire et sécurisé : un avion est une technologie très propriétaire, mais le transport aérien commercial reste très sûr. Mais ce qu’un modèle propriétaire ne peut pas réaliser, c’est la connaissance partagée de la sécurité — la capacité à faire confiance à des acteurs qui ne se font pas mutuellement confiance.
Les systèmes civiques comme les élections sont des cas où la sécurité par connaissance partagée est cruciale. Un autre exemple est la collecte de preuves en justice. Récemment, dans le Massachusetts, de nombreux résultats de tests de respiration pour l’alcoolémie ont été invalidés parce que des informations sur des défaillances de test ont été dissimulées. Voici un extrait :
“Alors, tous les résultats sont-ils défectueux ? Non. En fait, dans la majorité des cas, les tests de respiration n’ont pas de problème de calibration. Mais, après enquête, il a été découvert que le laboratoire criminel de l’État avait dissimulé des preuves, révélant que le problème était plus étendu que ce qu’ils avaient dit. Le juge Frank Gaziano a écrit que tous ces procès avaient violé les droits procéduraux des accusés.”
Le respect de la procédure en justice est un domaine où la sécurité par connaissance partagée est essentielle — car sans connaissance partagée, la justice peut rapidement devenir une spirale d’auto-défense.
Au-delà de la vérifiabilité, l’ouverture a aussi ses bénéfices intrinsèques. Elle permet aux communautés locales de concevoir des systèmes de gouvernance, d’identité et autres besoins, en accord avec leurs objectifs. Si un système de vote est propriétaire, il sera plus difficile pour un pays (ou une région, ou une ville) d’expérimenter de nouvelles approches : ils devront soit convaincre une entreprise de mettre en œuvre leurs règles préférées, soit tout refaire eux-mêmes, ce qui coûte cher. Cela augmente le coût de l’innovation politique.
Dans ces domaines, une approche plus open source, avec une éthique hacker, donnerait plus d’autonomie aux acteurs locaux, qu’ils soient individuels, gouvernementaux ou d’entreprises. Pour que cela soit possible, il faut que les outils ouverts soient largement disponibles, que l’infrastructure et les codes soient libres, pour que d’autres puissent construire dessus. Pour minimiser le pouvoir concentré, le copyleft est particulièrement précieux.
Le dernier domaine clé pour la technologie civique dans les années à venir est la sécurité physique. Les caméras de surveillance ont proliféré ces vingt dernières années, suscitant de nombreuses inquiétudes sur la vie privée. Malheureusement, je prévois que la montée récente des drones de guerre rendra “ne pas faire de haute technologie pour la sécurité” de moins en moins viable. Même si un pays ne viole pas la vie privée, si ses lois ne protègent pas contre des attaques d’États ou de groupes hostiles, cela ne sert à rien. Les drones rendent ces attaques beaucoup plus faciles. Il faut donc des contre-mesures, notamment des systèmes anti-drones et des capteurs.
Si ces outils sont propriétaires, la collecte de données sera opaque et centralisée. Si ces outils sont ouverts et vérifiables, nous pourrons adopter de meilleures méthodes : des dispositifs qui ne sortent qu’une quantité limitée de données, puis les suppriment, avec une preuve vérifiable. Nous pourrions envisager un futur de sécurité physique numérique, ressemblant à un chien de garde numérique plutôt qu’à une prison panoramique. Les dispositifs de surveillance publics pourraient être open source et vérifiables, avec un cadre légal permettant à quiconque de vérifier aléatoirement leur fonctionnement. Des clubs d’informatique universitaires pourraient en faire un exercice pédagogique.
L’approche open source et vérifiable
Nous ne pouvons pas éviter que tous les aspects de la vie (individuelle et collective) soient profondément imbriqués dans des systèmes informatiques numériques. Par défaut, nous risquons d’avoir des systèmes construits et exploités par des entreprises centralisées, motivées par le profit pour une minorité, avec des portes dérobées gouvernementales, que la majorité ne peut ni comprendre ni vérifier. Mais nous pouvons avancer vers de meilleures alternatives. Imaginez un monde :
· où vous avez un appareil personnel sécurisé — avec fonctionnalités de smartphone, sécurité d’un hardware wallet cryptographique, et une vérifiabilité mécanique comparable à une montre de luxe ;
· où toutes vos applications de messagerie sont chiffrées, utilisant un routage par mixnet, avec tout le code formellement vérifié. Vous pouvez être certain que vos communications privées restent privées ;
· où votre argent est sous contrôle via des actifs ERC20 standardisés (ou équivalents) enregistrés sur la blockchain ou sur des serveurs certifiés, et que vous pouvez récupérer si vous perdez votre appareil, via une combinaison d’autres appareils, membres de la famille, amis ou institutions (pas forcément l’État : si c’est facile pour n’importe qui, même une église pourrait le faire) ;
· où l’infrastructure de base open source, comme Starlink, vous donne une connectivité mondiale robuste sans dépendre d’acteurs centralisés ;
· où votre appareil utilise un LLM open source, avec poids vérifiables, pour analyser votre activité, vous conseiller, faire des suggestions, et vous alerter en cas d’erreur ou de risque ;
· où vous portez en permanence un dispositif de suivi de santé personnel, open source et vérifiable, qui vous donne accès à vos données et garantit qu’aucune personne ou entité ne peut y accéder sans votre consentement ;
· où nous disposons de formes de gouvernance avancées, combinant tirage au sort, assemblées citoyennes, double majorité, et une sélection d’experts pour définir les objectifs et leur mise en œuvre. En tant qu’utilisateur, vous pouvez avoir la certitude que le système applique bien les règles telles que vous les comprenez ;
· où l’espace public est équipé de capteurs pour suivre des variables biologiques (niveau de CO2, AQI, présence de maladies aériennes, eaux usées), et où ces dispositifs (y compris caméras et drones de surveillance) sont open source, vérifiables, encadrés par la loi, et contrôlés par le public ;
· c’est un monde où la sécurité, la liberté et l’accès économique mondial sont renforcés. Mais pour y parvenir, il faut investir dans des technologies avancées : cryptographie ZK-SNARK, chiffrement homomorphe complet, obfuscation, etc., qui permettent de faire des calculs sur des données dans un environnement multi-parties, avec des garanties sur le résultat, tout en maintenant la confidentialité des données et des calculs. Ces outils permettent des applications de confidentialité renforcée. Des outils proches de la cryptographie, comme la blockchain pour garantir l’intégrité des données et l’absence d’exclusion, ou la privacy différentielle pour ajouter du bruit aux données, sont aussi pertinents ici.
· des applications et des systèmes sécurisés pour l’utilisateur. Les applications ne sont sûres que si leurs garanties de sécurité sont compréhensibles et vérifiables par l’utilisateur. Cela implique des frameworks logiciels facilitant la construction d’applications à propriétés de sécurité fortes. Cela implique aussi que le navigateur, le système d’exploitation, et d’autres intermédiaires (par exemple, un observateur LLM local) puissent vérifier l’intégrité des applications, évaluer leur risque, et présenter ces informations à l’utilisateur.
· la vérification formelle. Nous pouvons utiliser des preuves automatiques pour vérifier que les programmes respectent nos propriétés, comme l’absence de fuite de données ou la résistance à la modification par des tiers non autorisés. Lean est récemment devenu un langage populaire pour cela. Ces techniques ont déjà été appliquées pour vérifier des algorithmes de ZK-SNARK sur la machine virtuelle Ethereum (EVM) et d’autres cas à haute valeur et risque élevé, et leur usage s’étend. Mais il faut aussi progresser dans d’autres pratiques de sécurité plus classiques.
Les illusions de la cybersécurité des années 2000 étaient erronées : les vulnérabilités (et portes dérobées) peuvent être surmontées. Il suffit d’apprendre à faire passer la sécurité avant d’autres objectifs.
· Systèmes d’exploitation open source et sécuritaires. De plus en plus, ils apparaissent : GrapheneOS comme version sécuritaire d’Android, le noyau minimaliste Asterinas, HarmonyOS de Huawei (avec une version open source) utilisant la vérification formelle (je prévois que beaucoup penseront “si c’est Huawei, il y a forcément une porte dérobée”, mais c’est passer à côté de l’essentiel : tant que c’est open source, tout le monde peut vérifier, et le fabricant n’a pas d’importance. C’est un bon exemple de comment l’ouverture et la vérifiabilité peuvent lutter contre la Balkanisation mondiale). Le hardware sécurisé open source. Si vous ne pouvez pas être sûr que votre hardware exécute réellement le logiciel, et qu’il ne fuit pas de données en secret, alors aucun logiciel n’est sûr. Sur ce point, deux objectifs à court terme m’intéressent particulièrement :
· un appareil personnel sécurisé — que la communauté crypto appelle “hardware wallet”, que les amateurs open source appellent “téléphone sécurisé”, et qui, une fois que vous comprenez la nécessité de sécurité et de généralité, convergeront vers la même chose ;
· une infrastructure physique pour l’espace public — serrures intelligentes, dispositifs de surveillance biologique décrits ci-dessus, et autres technologies “Internet des objets”. Nous devons pouvoir leur faire confiance. Cela nécessite open source et vérifiabilité.
· développer une chaîne d’outils open source pour la fabrication hardware sécurisée. Aujourd’hui, la conception hardware dépend d’une série de dépendances propriétaires, ce qui augmente considérablement le coût et limite la licence. Cela rend aussi la vérification hardware difficile : si l’outil de conception de puces est fermé, on ne sait pas ce qu’on vérifie. Même des outils comme la chaîne de scan existante sont souvent inutilisables en pratique, car trop de composants sont propriétaires. Tout cela peut changer.
· vérification hardware (ex. IRIS, scans X-ray). Il faut des méthodes pour scanner les puces afin de vérifier qu’elles ont bien la logique attendue, et qu’aucun composant supplémentaire permettant une altération ou une extraction de données non autorisée n’a été ajouté. Cela peut se faire de façon non destructive : un auditeur commande au hasard un produit contenant une puce, puis l’ouvre et vérifie la logique. Avec IRIS ou X-ray, cela peut se faire sans détruire le composant, permettant de scanner chaque puce.
· dispositifs open source, peu coûteux, locaux, et de surveillance biologique. La communauté et les individus doivent pouvoir mesurer leur environnement et leur propre santé, et identifier les risques biologiques. Cela inclut diverses technologies : dispositifs médicaux personnels comme OpenWater, capteurs de qualité de l’air, capteurs de maladies aériennes (Varro, etc.), et surveillance environnementale à plus grande échelle.
L’ouverture et la vérifiabilité à chaque niveau de la pile technologique
De là à là-bas
La différence clé avec une vision plus “traditionnelle” de la technologie, c’est que celle-ci est plus favorable à la souveraineté locale, à l’autonomie et à la liberté individuelle. La sécurité ne consiste pas à fouiller le monde entier pour s’assurer qu’il n’y a pas de méchants, mais à rendre chaque niveau du monde plus robuste. L’ouverture signifie que chaque couche de la construction et de l’amélioration technologique doit être ouverte, pas seulement l’accès centralisé via API. La vérifiabilité n’est pas réservée à des “cachets” propriétaires, qui pourraient être corrompus par des acteurs malveillants — c’est un droit du peuple, encouragé socialement.
Je crois que cette vision est plus robuste, mieux adaptée à notre monde fragmenté du XXIe siècle. Mais nous n’avons pas de temps infini pour la réaliser. La tendance à la centralisation accrue des données, aux portes dérobées, et à la simplification de la vérification à “est-ce que c’est fait par un développeur ou un fabricant de confiance” progresse rapidement. Les tentatives de véritable accès ouvert ont duré des décennies. Elles ont commencé avec Facebook et internet.org, et continueront, chaque tentative étant plus complexe que la précédente. Il faut agir vite pour rivaliser avec ces approches, et prouver aux individus et aux institutions qu’une meilleure solution est possible.
Si nous parvenons à réaliser cette vision, on peut la voir comme une forme de rétro-futurisme : d’un côté, on bénéficie d’une technologie plus puissante, permettant d’améliorer la santé, d’organiser la société de façon plus résiliente, et de se protéger contre de nouvelles menaces ; de l’autre, on revient à un monde où chaque personne possède une seconde nature, comme en 1900 : une infrastructure gratuite, modifiable, vérifiable, que chacun peut ouvrir, comprendre, et adapter à ses besoins, et où tout le monde peut participer, non seulement comme consommateur ou “développeur d’applications”, mais aussi en étant sûr que l’appareil fait ce qu’il dit, à chaque couche de la pile technologique.
La conception pour la vérifiabilité a un coût : de nombreux optimisations hardware et software offrent des gains de vitesse très demandés, mais rendent la conception plus difficile à comprendre ou plus fragile. L’open source complique la monétisation dans beaucoup de modèles commerciaux. Je crois que ces deux problèmes sont exagérés — mais ce n’est pas quelque chose que le monde pourra changer du jour au lendemain. La question est : quels sont les objectifs à court terme réalistes ?
Je propose une réponse : s’efforcer de construire une pile technologique entièrement open source et vérifiable, adaptée aux applications à haute sécurité, non critiques en termes de performance — pour les consommateurs comme pour les institutions, pour le long et le court terme. Cela inclut le hardware, le software, et la biotechnologie. La majorité des calculs réellement critiques en sécurité n’ont pas besoin d’être ultra rapides, et même dans ce cas, il existe souvent des moyens de combiner des composants performants mais non fiables, avec des composants fiables mais moins rapides, pour atteindre un bon compromis entre performance et confiance. Rendre tout cela parfaitement sécurisé et ouvert est irréaliste. Mais nous pouvons commencer par garantir ces propriétés dans les domaines vraiment cruciaux.
Lien hypertexte dans l’article
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
[26]
[27]
[28]
[29]
[30]
[31]
[14]