Petit glossaire non-exhaustif pour un web techniquement compatible avec la démocratie

Article
En cette ère où la technologie transforme comme jamais l’espace public et l’exercice du pouvoir, il devient indispensable de comprendre ces mécanismes.
Interview de Harry Halpin

Internet n’est pas qu’un réseau technique : c’est un miroir de nos sociétés, un champ de bataille politique et un laboratoire philosophique.
Harry Halpin, chercheur américain et figure majeure de la pensée critique du Web, explore depuis ses premières recherches sur la gouvernance d’Internet dans les années 2000 les tensions entre liberté, surveillance et souveraineté numérique.
Après être passé par le World Wide Web Consortium, le MIT et l’Institut national de recherche en informatique, il dirige désormais Nym, un réseau open source utilisant des mixnets pour protéger la vie privée contre la surveillance de masse.
À l’heure où les plateformes dominent nos vies, où l’intelligence artificielle redessine nos rapports au savoir et où les États tentent de réguler un espace sans frontières, ses travaux interrogent : le web peut-il encore incarner l’émancipation promise à ses origines ?
En 2013, il dirigea avec Alexandre Monnin - auteur d’une thèse sur la philosophie du Web - l’ouvrage Philosophical Engineering.
Entre utopies fondatrices et dystopies contemporaines, il retrouve le philosophe français à l’occasion de cet échange pour décrypter les enjeux de pouvoir, de contrôle et de résistance qui traversent l’infrastructure même de notre monde connecté.
Rencontre avec un penseur qui refuse de séparer le code de l’éthique, et la technologie de la démocratie.
Vous venez de la philosophie de la logique et du langage, et vous êtes l’un des précurseurs de la philosophie du Web, avec une thèse sur le sens et la référence sur le Web. Vous êtes également passé par le W3C/MIT, puis l’Institut national de recherche en informatique et en automatique (INRIA), en France, et aujourd’hui vous êtes le cofondateur, PDG (CEO) et président du conseil scientifique de Nym, un mixnet décentralisé conçu pour contrer la surveillance de masse. Avec le recul, quel est le fil conducteur de votre parcours ? Qu’est-ce qui relie, pour vous, des débats très théoriques sur la signification dans le cadre du Web (sémantique) et votre travail actuel, très concret, de construction d’infrastructures de chiffrement et d’anonymat ?
Le fil rouge unique qui relie tout mon travail est celui-ci : j’ai toujours considéré le Web comme un levier d’Archimède sur lequel on peut s’appuyer pour changer le monde. Cette conviction fondamentale, à savoir que la technologie peut être mise au service de l’émancipation plutôt que du contrôle, a profondément orienté mon parcours en philosophie et dans la vie en général. En fait, je pense que les technologies qui peuvent servir à contrôler les gens devraient être détruites, tout simplement.
Quand j’étais très jeune, avant que l’accès au Web ne soit largement répandu, je m’inquiétais de problèmes qui semblaient hors de ma portée en tant qu’individu, de la menace du changement climatique jusqu’à l’accès à l’information. Lorsque j’ai découvert le Web, il m’a semblé évident que c’était précisément l’outil dont nous avions besoin pour construire l’intelligence collective capable de s’attaquer à ces problèmes difficiles.
Même si, pour moi, il allait de soi que le Web et Internet étaient révolutionnaires, j’ai eu du mal à y croire quand j’ai commencé à étudier la philosophie : les philosophes académiques — même si mes amis du côté de la théorie critique, comme Michael Hardt et Fredric Jameson, étaient plus ouverts, manifestaient très peu d’intérêt pour ces questions. Je trouvais aussi que les media studies manquaient de rigueur pour réellement changer le monde.
En licence, j’ai rencontré Brian Cantwell Smith. Il m’a convaincu que les ordinateurs étaient des objets de recherche philosophique de premier plan, dignes d’une enquête rigoureuse ; et je pense l’avoir convaincu, en retour, que l’Internet et le Web étaient eux à leur tour tout aussi dignes d’étude.
Tout est parti de là. Ma thèse de doctorat proposait une alternative au point de vue dominant — quoique déclinant — en informatique et en philosophie analytique, selon lequel la sémantique pourrait être réduite à la logique. J’y défendais plutôt l’idée que l’usage du langage numérique et d’autres médias sur le Web laisse des « traces » permettant de cartographier une sémantique sociale au moyen du machine learning.
Après mon séjour de postdoctorat — grâce à vous, Alexandre ! — avec Bernard Stiegler, j’ai eu l’honneur de travailler au W3C/MIT sur les standards du Web, sous la direction de Tim Berners-Lee. J’aurais pu rester dans l’université au sens strict, mais j’ai pensé que les standards pouvaient être un moyen puissant de changer le monde. À l’époque, j’étais la seule personne au W3C/MIT à comprendre un minimum le chiffrement, du fait de mon usage militant de PGP. Donc, au lieu de travailler sur les standards du Web sémantique, je me suis impliqué dans la cryptographie — un travail que j’ai continué après mon départ du W3C/MIT, notamment sur les DRM au sein d’INRIA Paris.
Je ne suis pas un théoricien des nombres, mais il m’est vite apparu que la cryptographie ne résolvait qu’une petite partie du problème : l’information la plus importante n’était pas les données à chiffrer, mais les métadonnées — autrement dit, qui communique avec qui. Après sa keynote à la conférence Financial Cryptography 2021, Whitfield Diffie, l’inventeur de la cryptographie à clé publique, a reconnu que ce problème dépassait ce que la cryptographie pouvait résoudre selon lui.
J’ai donc déplacé mon attention, passant de la création de standards pour des métadonnées lisibles par des machines vers une autre priorité — faire en sorte que ces métadonnées puissent disparaître grâce à des infrastructures d’anonymat, comme le mixnet de Nym.
En 2010, vous avez coécrit le rapport du W3C A Standards based, Open and Privacy aware Social Web, qui envisageait un Web social ouvert, interopérable et relativement respectueux de la vie privée. Avec 15 ans de recul, qu’est-ce que ce rapport a bien vu, et qu’a-t-il sous-estimé dans la trajectoire réelle de Facebook, Twitter et des plateformes qui sont venues après ? Et surtout : qu’est-ce que cette expérience vous a appris à propos de ce que les organismes de standardisation peuvent — et ne peuvent pas — faire face aux plateformes privées ?
Au regard de ma conviction profonde selon laquelle le social précède l’ontologique, j’ai toujours trouvé étrange que le Web n’inclue pas des moyens de décrire les relations sociales aussi facilement qu’il permet de décrire des liens entre documents. Le réseau social FOAF — Friend of a Friend, de Dan Brickley — était d’ailleurs l’une des rares applications du Web sémantique à avoir connu une adoption organique.
Au début des années 2000, il n’était pas écrit d’avance que les réseaux sociaux seraient capturés par de grandes plateformes, comme Facebook, Twitter, etc. À l’époque, il semblait même plausible que des plateformes concurrentes comme MySpace et Facebook fragmentent nos relations sociales en fiefs séparés, empêchant les gens d’un réseau de communiquer avec ceux d’un autre. On peut établir un parallèle avec les premiers systèmes hypertextes — souvent plus sophistiqués que le Web lui-même — qui ne permettaient pas de créer des liens vers des documents situés en dehors de leur base centralisée de liens.
Ainsi, même si, avec le recul, cela peut sembler naïf, voire parfaitement idéaliste, en 2010, il existait un besoin urgent pour un standard de réseau social universel et ouvert, qui accomplirait pour le Web social ce que HTML avait fait pour le Web hypertexte des documents. De nombreux problèmes — de l’insécurité des mots de passe aux violations de la vie privée motivées par le profit commercial, en passant par les bulles de filtres produites par des conversations fracturées — étaient anticipés dans ce rapport.
Les solutions proposées, fondées sur des standards ouverts, étaient quant à elles en avance sur leur temps, et elles demeurent pertinentes aujourd’hui. Nous avons d’ailleurs progressé depuis mes débuts au World Wide Web Consortium (W3C) : on peut à ce titre citer des standards sociaux ouverts comme ActivityPub, ou encore Web Authentication, c’est-à-dire les « passkeys ».
En revanche, ce que nous avons sous-estimé, c’est que le contrôle des réseaux sociaux à des fins publicitaires allait devenir le moteur de l’ascension de ces grandes plateformes. Sans surprise, aucune plateforme dominante — bénéficiant d’effets de premier entrant, comme Facebook — n’allait adopter volontairement des standards ouverts menaçant son modèle économique.
Nous n’étions pas des idiots au W3C : nous soupçonnions que les acteurs dominants ignoreraient les standards, comme Microsoft avait essayé d’ignorer HTML pendant longtemps. Nous pensions toutefois qu’une alliance d’entreprises « challengers » pourrait forcer l’adoption de standards ouverts pour casser ce monopole. Hélas, nous avions tort sur ce point : Facebook avait déjà gagné.
La tentative de Google de construire un réseau social ouvert, Google+, a échoué, tout comme la plupart des alternatives ; Google a même fermé son Open Social Graph API en 2021. Les anarchistes qui soutenaient notre travail chez Twitter ont été licenciés ou sont partis. Aujourd’hui, des militants ont créé leurs propres instances Mastodon fédérées, fondées sur ces standards ouverts en guise d’alternative à Twitter après sa reprise par Elon Musk (le nom « X » est simplement trop stupide pour qu’on le mentionne). Et même Facebook Threads a adopté ActivityPub, ainsi qu’ActivityStreams, pour concurrencer Twitter. Pourtant, relativement peu de gens sont passés de Twitter à Threads, encore moins à Mastodon.
Il y a là deux problèmes. Le premier est politique : le pouvoir des algorithmes basés sur l’engagement capte l’attention des utilisateurs et œuvre constamment à résister à leur liberté — et même à leur diversion — hors de la plateforme. Le second est technique : dans un monde de petits réseaux sociaux fédérés reliés par des standards ouverts, il est difficile de découvrir des personnes, de les trouver, et de partager avec elles des conversations.
Contre-intuitivement, pour ceux qui critiquent Bitcoin, je pense que les technologies blockchain pourraient résoudre ce problème : créer un protocole de consensus entre différents serveurs fédérés, afin de « recoudre » les conversations via un consensus et permettre la découverte d’une personne quel que soit le serveur où elle se trouve. Je n’ai pas abandonné : ma société actuelle, Nym, a même un codebase Rust d’un réseau social que nous n’avons pas encore (re)lancé.
Dans votre article « The Hidden History of the Like Button: From Decentralized Data to Semantic Enclosure », vous montrez comment des standards conçus pour un Web sémantique ouvert ont été réutilisés pour nourrir la publicité ciblée via le bouton Like. Pourriez-vous nous raconter cette histoire à grands traits ? À quel moment le projet d’un Web distribué a-t-il basculé vers une forme de « semantic enclosure » au profit de quelques plateformes ? Et qu’est-ce que cela nous apprend sur la manière dont l’IA contemporaine dépend de ces infrastructures de données, souvent bien avant que le débat public ne porte sur les « modèles » eux-mêmes ?
De tout temps, le recul (hindsight) est supérieur à la prévision (foresight). Le Web sémantique idéaliste de Tim Berners-Lee semble avoir échoué, mais en réalité, il a simplement été coopté par les grandes plateformes.
La création de standards pour décrire l’information de manière naturelle, combinée à une position monopolistique sur la recherche, a mené à Google. La première étape a été l’adoption de standards du Web sémantique pour la recherche, via schema.org, créée par des figures du W3C comme Dan Brickley (de FOAF) et R. V. Guha, que je respecte énormément.
La seconde étape a été la création du bouton « Like » par Facebook, inventé par Dave Recordon peu après une réunion avec moi et le chercheur en IA Pat Hayes. Le bouton Like n’était pas seulement un bouton : il faisait partie d’un « Open Graph Protocol » qui n’était ni ouvert (open), ni réellement un protocole. Il permettait de « liker » n’importe quoi, mais l’information était envoyée directement vers le silo opaque de Facebook, au moyen des standards du Web sémantique du W3C.
En copiant ces efforts, chaque plateforme — d’Amazon à Microsoft — a développé ses propres « knowledge graphs » (graphes de connaissances) internes (probablement sans même avoir besoin des standards du Web sémantique du W3C), c’est-à-dire une représentation propriétaire de la connaissance de « tout ce qui existe ». Ainsi, la « signification » des documents n’était pas partagée sur un Web sémantique ouvert : elle s’est trouvée soumise à une « enclosure sémantique », par quelques firmes de la Silicon Valley.
C’est une tragédie pour l’humanité, et surtout pour la science : le Web devait permettre de nouvelles formes d’analyse et de partage de données, afin d’aider à résoudre les problèmes auxquels notre espèce fait face, comme le changement climatique. Aujourd’hui, ces modèles sont intégrés aux IA fondées sur des LLM, et chaque knowledge graph fermé sert d’avantage compétitif à chaque plateforme de la Silicon Valley.
C’est aussi un immense échec que l’Europe — et le reste du monde — ne maintienne pas des données sémantiques pour bâtir une alternative ouverte : aucune entreprise européenne ne concurrencera la Silicon Valley. Les données sémantiques sont un secret opaque jalousement gardé par les grandes plateformes, non parce que ces représentations seraient intrinsèquement ininterprétables ou inexplicables, mais simplement parce qu’il n’y a aucune raison commerciale de publier les bases de données.
La guerre spirituelle sur l’avenir du savoir se joue entre plateformes propriétaires ; et avec un Web sémantique ouvert absent, il n’existe même pas d’option publique. Un mouvement à l’échelle des villes et des municipalités pour défendre les données des citoyens et ouvrir des données publiques via le Web sémantique reste une nécessité.
Avec Nym, vous soutenez qu’il ne suffit plus de chiffrer le contenu des messages : il faut aussi protéger les métadonnées (qui parle à qui, quand, d’où), grâce aux mixnets. En quoi cette approche diffère-t-elle de la promesse déjà forte des messageries chiffrées de bout en bout (Signal, etc.) ? Et pourriez-vous expliquer, pour un public non spécialiste, ce qu’un mixnet change concrètement dans la vie d’un journaliste, d’un activiste ou d’un citoyen ordinaire face à des États et des plateformes dotés de capacités de surveillance à grande échelle ?
Le chiffrement d’un message signifie simplement que seul le destinataire prévu peut lire le message — une sorte d’équivalent numérique d’une carte postale scellée. Mais c’est une enveloppe scellée magique : contrairement à une enveloppe postale normale, elle est garantie incassable par la structure des mathématiques pendant des milliers d’années — dans la mesure où l’on peut faire des hypothèses raisonnables sur l’avenir des mathématiques et de l’informatique.
Comme l’a dit Julian Assange, le chiffrement est un miracle — que nous tenons pour acquis quand nous utilisons des programmes comme Signal. Signal a été créé à l’origine par mon bon ami l’anarchiste Moxie Marlinspike, et je l’utilise tous les jours. C’est de loin la meilleure option aujourd’hui — surtout comparée à WhatsApp et Telegram.
Cependant, même quand vous envoyez un message au serveur Signal, contrôlé par des gens honnêtes et compétents, le serveur connaît (et pourrait enregistrer) l’heure à laquelle vous avez envoyé le message et sa longueur, ainsi que d’autres métadonnées, comme votre adresse IP — qui fait partie du fonctionnement même d’Internet (même si Signal ne l’enregistre pas, et nous ne pensons pas qu’il l’enregistre). Une adresse IP peut vous identifier au moins à l’échelle d’une ville ou d’un quartier, parfois jusqu’à votre routeur.
Maintenant, si l’on prend un programme moins éthique que Signal, comme WhatsApp, même s’il ne peut pas lire vos messages, WhatsApp peut capter toutes ces données de bas niveau au moment où vous communiquez, et peut-être même essayer d’inférer avec qui vous communiquez. Pire : contrairement à Signal, WhatsApp et Telegram conservent tout votre réseau social sur leurs serveurs.
Pire encore : un adversaire puissant comme la NSA ou Palantir peut observer les messages entrants et sortants d’un serveur, même honnête, comme Signal, et tenter de les corréler avec les personnes qui envoient des messages à Signal à un moment donné. C’est exactement le type de collecte que Snowden a révélé au sujet d’Internet dans son ensemble via la surveillance de masse de la NSA ; et comme plus de 10 ans ont passé depuis ces révélations, nous pouvons supposer que la surveillance est aujourd’hui beaucoup, beaucoup plus puissante.
Il n’existe qu’une technique générale, à notre connaissance, capable de nous défendre contre ce niveau de surveillance de masse : un mixnet. Un mixnet fait ce qu’il dit : il prend toutes ces enveloppes de messages de différentes personnes, les mélange comme on mélange un jeu de cartes, puis les relâche dans un ordre mélangé. Une fois ce processus répété plusieurs fois sur un ensemble distribué de serveurs, il devient très difficile — même pour un adversaire aussi puissant que la NSA ou Palantir — d’identifier qui parle à qui.
Inventé par David Chaum à la fin des années 1970, mais jamais déployé à grande échelle jusqu’à récemment (notamment par nous, chez Nym), un mixnet est ainsi une technologie générique visant à éliminer les métadonnées. Nous espérons que nos amis de Signal, et beaucoup, d’autres adopteront les mixnets !
Vous travaillez sur la décentralisation depuis longtemps : d’abord via le Web social et les standards ouverts, puis via la cryptographie, les blockchains et Nym. Avec du recul, comment distinguez-vous ce qui redistribue réellement le pouvoir (sur les données, la gouvernance, les modèles économiques) de ce qui ne fait que déplacer le centre — des GAFAM vers de nouvelles formes de capitalisme de plateforme tirées par la cryptofinance ? Selon vous, quelles conditions minimales sont nécessaires pour que la décentralisation technique se traduise effectivement par une démocratisation politique ?
Comme je l’ai défini dans un article de 2017 publié au symposium Privacy-Enhancing Technologies avec mes bons amis George Danezis et Carmela Troncoso, d’un point de vue technique, la décentralisation signifie simplement qu’un système distribué à différentes autorités responsables de différents composants, et qu’aucune autorité centralisée n’est entièrement digne de confiance du point de vue des autres composants. Autrement dit, un système décentralisé n’est qu’un système distribué en présence d’adversaires.
Je pense que la même définition vaut pour les systèmes politiques : il n’existe pas de pouvoir central pleinement digne de confiance qui puisse exercer sa souveraineté de manière arbitraire. Cependant, la décentralisation n’est pas l’absence d’autorités centralisées, mais le fait de donner à chaque partie d’un système la capacité d’être autonome et de prendre ses propres décisions de manière ouverte.
Nous trouvons une décentralisation économique dans l’idéal du marché, selon Hayek et von Mises, qui permet à chaque consommateur de décider ce qu’il achète (et potentiellement ce qu’il vend), à l’opposé d’une planification centralisée « de confiance ». Mais l’économie repose sur la politique et une politique décentralisée, c’est l’anarchisme, qui soutient que la liberté de chaque individu dépend de la liberté de tous les autres, et que l’appareil centralisé de l’État ne doit pas être considéré comme fiable.
L’un des pères fondateurs de l’anarchisme, Proudhon, porte dans ses œuvres les germes à la fois de l’anarcho-capitalisme et de l’anarcho-communisme. Les partisans actuels de la cryptofinance se situent souvent sur le même spectre ; on peut les voir comme des néo-proudhoniens ravivant la tradition mutualiste du contrat et de la décentralisation, comme alternative à la confiance dans l’État ou dans les grandes plateformes.
Les blockchains ajoutent la cryptographie pour créer des systèmes qui subliment le problème politique de la confiance en un problème technique de cryptographie. Les systèmes techniques décentralisés plus anciens, comme le Web sémantique et le Web social fédéré (le « fediverse »), n’avaient pas vraiment pensé la question des adversaires : ils avaient donc tendance à être peu sûrs et défaillants du point de vue de la vie privée, ce qui a freiné leur adoption à mesure que le Web passait d’un environnement académique fondé sur l’éthique du partage à un espace de puissance géopolitique où la guerre de l’information devenait chose courante. Les technologies blockchain — malgré leur usage dominant pour la spéculation financière (ou la corruption pure et simple du côté du président des États-Unis) — ont résolu les problèmes techniques difficiles de la décentralisation.
Cependant, eu égard à de nombreuses plateformes fondées sur la blockchain, nous observons un retour à la centralisation via des échanges centralisés qui rendent la technologie facile d’usage, et via l’adoption de ces technologies par les institutions très centralisées que Bitcoin était censé remettre en cause : les banques et l’État-nation. Jusqu’ici, le capitalisme de plateforme n’est pas sérieusement menacé par la blockchain ; il peut même en incorporer les aspects utiles tout en se réinstallant comme tiers de confiance centralisés.
Dans cet état de choses désolant, il est nécessaire que la décentralisation politique aille de pair avec la décentralisation technique. Dans un monde où la technique est de plus en plus l’essence du pouvoir politique, la décentralisation technique ne produit pas nécessairement une décentralisation politique — comme on le voit avec la blockchain. En revanche, je ne vois pas comment une décentralisation politique pourrait exister sans une décentralisation technique des infrastructures.
La tâche est donc double : construire des outils décentralisés qui donnent du pouvoir aux individus et aux collectivités à toutes les échelles, et mener la tâche politique de construire une nouvelle forme de conscience de classe : que les gens préfèrent ces outils à ceux des plateformes centralisées, et s’en servent pour renverser le pouvoir centralisé. Ce n’est pas aussi farfelu qu’il y paraît : le Principe fédératif de Proudhon montrait déjà comment des réseaux décentralisés pouvaient constituer une alternative à l’État-nation dès sa genèse.
La décentralisation politique exige que chaque fonction d’un système soit réalisée par le composant le plus local et le plus petit capable d’accomplir cette tâche. Avec les technologies numériques, ce nouvel anarchisme devrait être techniquement plus possible aujourd’hui qu’au temps de Proudhon ; j’ai d’ailleurs de nouveaux textes sur ce sujet qui paraîtront au cours de l’année prochaine.
Avec Bernard Stiegler et d’autres, vous avez travaillé sur l’idée d’individuation collective : la possibilité de réseaux qui soutiennent des collectifs et des projets, plutôt que de réduire chacun de nous à un « profil » dans un graphe social commercial. Si vous deviez esquisser aujourd’hui un « Web social stieglérien », à quoi ressemblerait-il concrètement en termes de protocoles, d’institutions et de modèles économiques ? Et, dans cette perspective, quel rôle pourraient jouer les villes et les autorités locales (plutôt que seulement les États-nations ou les grandes plateformes privées) ?
Dans les termes les plus simples, l’individuation collective met au premier plan le fait qu’aucun de nous ne naît individu : nous devenons des individus en faisant partie d’une communauté sociale et technique plus large.
Depuis les Lumières, les individus ont été définis comme capables d’exercer leur raison de façon autonome. Mais à mesure que nous avons de plus en plus entremêlé notre être social avec des algorithmes et des réseaux sociaux numériques, nous risquons d’entrer dans ce que Deleuze appelait une « société de contrôle », où notre être même est mis au service de puissances extérieures, au-delà de notre contrôle et opaques pour notre raison — aujourd’hui, la vaste puissance étrangère du capitalisme de plateforme qui nous donne un profil social en échange de l’érosion progressive de notre vie sociale réelle, scellant ainsi un pacte faustien.
Comme dans mon travail avec Bernard Stiegler — en particulier dans mon texte « Collective Individuation » avec Yuk Hui — la vision qui animait les débuts du W3C pour un Web social ouvert était l’idée que des groupes de toutes formes et tailles, temporaires ou durables — de l’individu jusqu’au planétaire — puissent s’auto-organiser via de nouvelles formes de réseaux sociaux numériques.
Cela impliquerait aussi des réseaux sociaux qui ne prennent pas la forme de graphes, mais ressemblent davantage aux formes non linéaires d’organisation et de description imaginées par Ted Nelson dans sa vision originelle de l’hypertexte : chaque description est incomplète et située, construite depuis un point de vue différent, s’appuyant sur une collection ouverte de traces issues des mondes numérique et analogique.
Ce point de vue a d’immenses ramifications politiques : que sont les institutions politiques — des villes aux entreprises, des États-nations aux corporations — sinon des groupes ? Ne pourrait-on imaginer la décentralisation de fonctions jusqu’ici prises en charge par les États-nations depuis le traité de Westphalie ? Et pourquoi s’arrêter aux États-nations ? Plutôt que de remplacer l’État-nation par des corporations, ne pourrait-on pas aussi décentraliser les fonctions des entreprises privées, de plus en plus oligarchiques — alors même que la corporation et l’État-nation ne datent que du XVIIe siècle ?
Étant donné la crise écologique, sociale et économique entremêlée à laquelle la planète fait face, nos modèles politiques et économiques actuels sont totalement en faillite. Pour paraphraser Proudhon : le 21e siècle doit être celui des fédérations décentralisées, sinon l’humanité subira probablement une nouvelle guerre qui mettra fin à la vie sur Terre.
Historiquement, des fédérations fondées sur des villes et des municipalités — des cités-États grecques à la Ligue hanséatique — ont toujours constitué une alternative viable à l’État-nation. Il est crucial que ces nouvelles formes décentralisent le pouvoir jusqu’à l’assemblée et l’individu. Cette vision démocratique et anarchiste est très éloignée de celle d’États-réseaux autoritaires comme Singapour, que certains promoteurs contemporains du « network state » valorisent.
Nous sommes au 21e siècle : de nouveaux modèles économiques et politiques sont attendus depuis longtemps, et ils doivent être repensés depuis le point de vue de protocoles sociotechniques qui n’exigent pas la violence coercitive de l’État ; à cet égard, la cryptographie — et même la blockchain — est absolument essentielle.
Les villes et municipalités devraient utiliser la blockchain — sur la base de méthodes de consensus écologiques, comme la preuve d’enjeu (proof-of-stake) — pour se mettre en réseau entre elles de manière sûre, et atteindre l’échelle nécessaire pour faire face aux multiples faillites des États-nations et des corporations, par exemple leur incapacité à affronter le changement climatique.
Comme notre ancien mentor Bernard Stiegler le rappelait toujours, nos vies sociales sont inexorablement construites sur la technologie. Vers la fin de sa vie, Bernard pensait qu’un nouveau mouvement municipaliste pourrait créer de nouvelles sortes de smart cities permettant précisément ce type d’expérimentations économiques et politiques — une forme de municipalisme écologique high-tech allant bien au-delà de la vision de Murray Bookchin.
De ce point de vue, votre travail sur l’écologie et l’effondrement, le « Web que nous pouvons nous permettre » (Web We Can Afford), est plus important que jamais. Aux États-Unis, ce sont des villes comme New York qui résistent à Trump ; en France, ce sont probablement les villes qui résisteront à la montée de Le Pen. Et c’est encore plus important dans le Sud global, qui a besoin de nouvelles manières de résister à l’impérialisme et à ses propres dynamiques fascistes. Mais comment une ville peut-elle résister au technofascisme si un simple interrupteur chez Microsoft ou IBM peut la mettre à l’arrêt ?
Construire et soutenir des technologies décentralisées et du logiciel libre n’est donc pas seulement une question technique : c’est une question d’autonomie politique en période de montée du fascisme. Ces expérimentations technologiques ne sont pas seulement défensives : elles préfigurent le futur. Des expérimentations techniques peuvent conduire à de nouvelles formes de vie antifascistes, tout comme des technologies peuvent conduire au technofascisme.
Si nous sommes incapables d’imaginer comment mesurer la valeur autrement que par le compte unidimensionnel de l’argent, ou comment réinventer une vie politique qui donne de l’autonomie à chacun, tout en respectant l’immense diversité du non-humain sur la planète, alors notre faiblesse ne tient pas à la reconfigurabilité infinie du numérique, mais à nos imaginaires, engoncés dans la configuration sociale actuelle tenue pour éternelle. Ce qu’il faut, c’est la révolution, qui n’est rien d’autre qu’une reconfiguration de la vie.

Article
En cette ère où la technologie transforme comme jamais l’espace public et l’exercice du pouvoir, il devient indispensable de comprendre ces mécanismes.

Article
Le progrès technologique nous éblouit. Se pourrait-il qu’il nous aveugle en plein jour ?

Article
La Revue dessinée a publié plusieurs reportages sur les conséquences écologiques et sociales de nos usages digitaux. Avec humour, l'un de ces textes nous permet de prendre la mesure du piège écologique que constitue notre addiction au numérique.

Interview de Florian Fomperie
Directeur d’antenne de Radio Anthropocène
Une multitude de médias associatifs, locaux et citoyens pourrait-elle un jour constituer un rempart contre la désinformation et le manque d’indépendance des médias mainstream ?

Interview de Vincent Dubois
Professeur à l’Université de Strasbourg et membre du laboratoire SAGE
Retour sur le renforcement du contrôle et de la sanction des assistés sociaux depuis les années 1990, jusqu'à la mise en place d’une politique organisée du contrôle.

Interview de Philippe Huneman
Directeur de recherche CNRS à l’Institut d’histoire et de philosophie des sciences et des techniques
Quel est le sens du mot profilage et quels sont ses principaux mécanismes ?

Article
Quel meilleur millésime pour soumettre les prophéties du passé à l’épreuve des faits ?

Article
Dans une perspective démocratique, la politique est-elle une « technique » réservée aux sachants ou un « art » ouvert à toutes et tous ?

Dossier
L'impact de l’IA dépasse largement le périmètre de l’innovation technologique et prend désormais part à des choix politiques, sans que les citoyens aient leur mot à dire...