On parle souvent du « numérique » comme d’un bloc : dématérialisation, plateformes, open data, smart city, intelligence artificielle… Or, ce qui a surtout changé depuis 15 ans, ce sont les options réellement disponibles pour les acteurs de l’action publique. Hier, il s’agissait surtout de choisir des outils pour communiquer, consulter ou « moderniser » l’administration et ses services. Aujourd’hui, les choix portent sur des infrastructures (données, cloud, identités, sécurité), sur des standards (interopérabilité, schémas, API), et désormais sur des modèles (IA génératives), qui reconfigurent les dépendances vis-à-vis de quelques acteurs dominants.
Par « options », on entend ici moins des fonctionnalités que des choix d’architectures — données, standards, hébergement, modèles — qui déterminent des dépendances et des capacités de sortie. Le propos n’est pas de dresser un inventaire complet du numérique public, mais de suivre quelques choix d’architecture structurants. Les exemples étatiques sont ici mobilisés lorsqu’ils éclairent des arbitrages qui se posent aussi aux collectivités.
Dans ce paysage, l’article de Viau & Gustave (2025) est un bon point d’appui pour les collectivités : il montre que le numérique ne mène pas mécaniquement à la transition écologique, mais que la maturité numérique d’un territoire devient un préalable (au moins partiel) à la conduite de politiques écologiques cohérentes. Surtout, cette maturité n’est pas qu’une affaire d’outils : elle passe par une stratégie et une socialisation des enjeux — dont les données ouvertes et l’inclusion numérique font partie.
À partir de là, on peut relire l’évolution récente comme une succession de déplacements :
- Du Web 2.0 (participation et services) vers la plateformisation ;
- Du Web de données/open data (ouvrir et standardiser) vers l’industrialisation de l’interopérabilité ;
- Du cloud vers l’IA générative, où l’enjeu redevient : qui opère, selon quelles règles, et pour quel régime de dépendance ?
L’angle des communs permet de tenir ensemble ces déplacements, en posant une question simple : l’action publique achète-t-elle des solutions « clés en main », ou construit-elle (et maintient-elle) des ressources partagées, gouvernées et réversibles (données, logiciels, standards, services) ? Autrement dit, conserve-t-elle une capacité de choix lorsque le numérique se fait infrastructure, puis modèles ?
1. Web 2.0 : participation, services… et externalisation silencieuse
Le moment du Web 2.0 a souvent été présenté comme un âge d’or de la participation — que l’on doit aux technologies AJAX et notamment l’objet XMLHttpRequest, qui a rendu possible des échanges asynchrones s’affranchissant de la nécessité de recharger une page éditée par un utilisateur —, consultations, budgets participatifs, civic tech, présence sur les réseaux sociaux. Pour les collectivités, l’option semblait claire : multiplier les canaux, simplifier la relation, aller chercher l’usager là où il se trouve.
Néanmoins, ce moment a aussi installé l’asymétrie durable qui se jouait en arrière-plan : la participation ayant été canalisée (et la valeur produite, captée) par des plateformes, dont les règles, les formats et les métriques échappaient à l’action publique. Autrement dit, la participation a largement reposé sur un processus de captation.
Ce point n’est pas seulement politique, il est organisationnel. Mettre une plateforme en place va bien au-delà du simple déploiement d’un outil : cela requiert des équipes, des routines, une capacité à répondre, à intégrer les contributions dans la décision, etc. Sans ces capacités, l’outil risque de devenir un théâtre d’expression vide. On voit déjà ici un thème qui reviendra avec l’IA : l’écart entre l’outil disponible et l’option réellement viable, selon la disponibilité des compétences, des budgets, de la capacité à entretenir une dynamique dans le temps.
2. Web de données et open data : « ouvrir » ne suffit pas, il faut standardiser
Le second déplacement est celui du « Web de données ». La donnée y devient un objet politique (transparence, redevabilité), autant que d’ingénierie (formats, métadonnées, API). En France, la dynamique est portée par le cadre de la loi pour une République numérique (2016) et, à l’échelle européenne, par la directive 2019/1024.
Mais la promesse de l’open data (publier → réutiliser → innover) n’existe que si les données sont trouvables, compréhensibles et combinables. D’où la montée en puissance des standards et référentiels :
À ce stade, l’option structurante pour l’action publique n’est plus « publier un fichier », mais « publier une donnée actionnable », donc structurée, documentée et maintenue.
C’est particulièrement visible dans les politiques écologiques locales : bâtiments, mobilités, énergie ou déchets reposent sur des données dispersées entre services, opérateurs et formats ; sans interopérabilité, il devient difficile de les relier et de piloter l’action publique de manière cohérente.
Open data ≠ commun (4 différences utiles)
- Une donnée ouverte est une ressource publiée ; un commun est une ressource + une communauté + des règles destinées de garantir une capacité à « durer ».
- L’open data peut être un « stock » en téléchargement ; un commun suppose en revanche des « flux » (mises à jour, corrections, arbitrages).
- L’open data vise avant tout la réutilisation ; un commun vise aussi la capacité collective à entretenir et à faire évoluer la ressource.
- L’open data sans standardisation produit peu d’interopérabilité ; un commun investit précisément dans les formats, les conventions et la gouvernance.
|
3. Plateformisation et cloud : quand l’infrastructure devient l’enjeu central
À mesure que l’administration se numérise, les données circulent via des fichiers, mais aussi via des services : authentification, paiement, formulaires, messagerie, stockage, outils collaboratifs. La plateformisation aboutit à la concentration progressive de fonctions et de flux chez quelques opérateurs capables d’en assurer l’exploitation à grande échelle.
Les standards ne disparaissent pourtant pas, ils changent de nature, n’étant plus uniquement des standards de données, mais devenant également des standards de sécurité, d’audit et de contractualisation. Dans ce contexte, la réponse française met l’accent sur le cloud de confiance, notamment à travers la qualification SecNumCloud de l’ANSSI. Dans ce cadre, l’essentiel se joue moins dans le choix des outils que dans les conditions de leur hébergement : où ? Par qui ? Sous quel droit ? Et avec quelle réversibilité ?
Pour une collectivité, la réflexion se déplace du dilemme open source vs propriétaire pour intégrer la « capacité à sortir » (techniquement et juridiquement) d’une dépendance technique, et la capacité à mutualiser (avec d’autres collectivités, avec l’État, avec des opérateurs publics).
Dans les faits, la dépendance se fabrique souvent par la commande publique : intégration, contrats, licences, clauses de sortie. Le marché devient alors un levier politique autant que technique.
4. IA génératives : l’interface universelle… et la reconcentration
Avec les IA génératives, un nouveau déplacement se produit : le langage devient une interface. On peut demander au système de rédiger, résumer, classer, rechercher, produire des réponses. L’effet est double.
Du côté des usages, des gains sont attendus (via l’accélération ou la délégation de certaines tâches, etc.). De l’autre, le cœur du système n’est plus un logiciel localement paramétrable, mais un modèle qui repose sur des infrastructures de calcul, souvent très lourdes, malgré quelques modèles open source comme DeepSeek, qui ont démontré que cette évolution n’est pas inéluctable). L’option pour les acteurs publics devient alors la suivante : se contenter de consommer un service d’IA (via une API privée) ou opérer un système (modèles + données + sécurité) dans un cadre maîtrisé.
Cette couche supplémentaire de calcul pose aussi une question de sobriété : tous les usages n’appellent pas des modèles lourds, et le ciblage des cas d’usage devient une condition de la soutenabilité (faible).
Ce déplacement est encadré par de nouveaux régimes de règles et de risques :
- Le cadre européen avec l’AI Act ;
- Les retours opérationnels avec le bilan du « bac à sable » de la CNIL — IA & services publics (2025) ;
- La sécurisation technique avec les recommandations de l’ANSSI pour un système d’IA générative (2024).
Cela accentue une tension entre deux exigences : ouvrir, au nom de la transparence, de la réutilisation et de l’innovation, et protéger, face aux risques qui pèsent sur les données personnelles, à l’amplification possible des erreurs et à la difficulté même de comprendre ou de contester les réponses produites.
Trois architectures d’IA en contexte public (et leurs risques) - IA « grand public » : un agent utilise un chatbot en ligne pour résumer une note ou reformuler un courrier. La facilité d’usage a cependant un coût. La charte des services du Premier ministre rappelle que les informations saisies dans un outil d’IA accessible en ligne sont stockées chez son propriétaire, et que seules des données publiques librement utilisables peuvent être communiquées à une IA externe.
- IA « sur mesure » opérée par un prestataire : l’accord conclu avec Doctrine pour mettre son IA juridique au service de l’État illustre une architecture plus intégrée, orientée vers les tâches d’analyse, de recherche et de rédaction. Le gain métier est réel, mais la dépendance peut se déplacer vers l’éditeur, les corpus, l’interface et les coûts d’évolution du service.
- IA « opérée dans un cadre public ou partagé » : avec Albert API, l’État propose une plateforme interministérielle d’inférence donnant accès à plusieurs modèles et à des usages de type RAG (génération à enrichissement contextuel, en anglais : retrieval-augmented generation) dans un environnement annoncé comme sécurisé, SecNumCloud et souverain. L’investissement initial est plus lourd, mais la gouvernance y gagne en réversibilité, auditabilité et maîtrise des données.
|
5. Communs et alternatives « souveraines » : de l’achat à la contribution
Un commun, au sens minimal, n’est pas seulement une ressource ouverte : selon la caractérisation canonique qui en est faite, il associe une ressource, une communauté et des règles (démocratiques) de gouvernance. C’est ce qui distingue ce qui s’avère simplement accessible d’une infrastructure durable.
Dans cette perspective, parler de « souveraineté » n’a de sens que si l’on précise ce qui est garanti dans la durée : le stockage ? Le code ? La donnée ? Le modèle ? La perspective des communs oblige à préciser le périmètre et, surtout, les enjeux de maintenance.
Côté État, un pivot important reste la doctrine « donnée/algorithmes/codes », notamment le rapport Bothorel (2020), qui consolide l’idée que l’ouverture et les moyens d’action de la puissance publique passent aussi par les codes et les organisations, pas seulement par des fichiers.
Côté outils, l’écosystème public se structure autour de briques mutualisées et/ou ouvertes :
- Le plan d’action « logiciels libres et communs numériques » (DINUM, 2021), texte charnière de 2021, visait à mieux connaître et utiliser les logiciels libres et les communs numériques dans l’administration, à accompagner l’ouverture des codes sources publics, et à valoriser les contributions de l’État aux communautés concernées. L’archive de code.gouv précise toutefois que ce plan est désormais obsolète : on peut donc le lire moins comme une feuille de route actuelle que comme un marqueur doctrinal important.
- Le SILL — le Socle interministériel de logiciels libres — est le catalogue de référence des logiciels libres recommandés par l’État pour l’administration ; il existe depuis 2013. C’est la traduction la plus concrète d’une politique du libre, qui se serait plus limitée à des principes, mais trouverait à s’incarner dans un outillage recommandé, partagé et documenté.
- La suite collaborative de l’État, La Suite Numérique est présentée comme une suite collaborative open source et souveraine, pensée comme alternative aux suites propriétaires, avec authentification unique via ProConnect et des services déjà disponibles, comme Tchap, Visio, Docs, Grist, Fichiers ou France Transfert. Elle donne à voir une stratégie d’équipement public par briques interconnectées et non dépendante d’une suite privée unique.
- Pour les collectivités, La Suite territoriale (ANCT), plateforme sécurisée de services mutualisés, cible d’abord les communes de moins de 3 500 habitants et les EPCI de moins de 15 000 habitants, tout en restant accessible aux collectivités adhérentes de structures de mutualisation partenaires. Avec ProConnect, Collectivite.fr, Messages, Fichiers, Projets ou Grist, on peut la lire comme la déclinaison territoriale, pour les petites collectivités, d’une logique d’infrastructure publique mutualisée.
- Pour l’IA, Albert API (plateforme d’IA générative de l’État), est la plateforme interministérielle d’inférence permettant aux administrations de se doter d’IA générative dans un environnement annoncé comme sécurisé, fiable et souverain, notamment en SecNumCloud. C’est un bon exemple d’IA publique pensée au-delà du simple chatbot : un socle de services intégré à un cadre de sécurité et de mutualisation.
- L’annonce franco-allemande de novembre 2025 associant Mistral AI et SAP marque à cet égard un changement d’échelle. À travers elle, l’État entend en effet construire une pile souveraine pour l’administration publique : ERP intégrant l’IA, automatisation de workflows financiers, agents numériques pour les agents et les citoyens, laboratoires d’innovation communs, gouvernance dédiée et calendrier de déploiement pluriannuel.
Cette séquence est importante, car elle montre que la « souveraineté » numérique, outre les logiciels et les données, se joue à l’échelle d’assemblages complets — modèles, plateformes, conformité, hébergement, gouvernance. Elle montre aussi, en creux, que cette souveraineté demeure relative : même lorsqu’elle s’européanise, elle reste suspendue à des dépendances d’infrastructure et de calcul qui excèdent encore largement les seuls acteurs publics.
Du côté des communs de la donnée, voici quelques exemples particulièrement parlants pour associant infrastructures, standards et maintenance :
- La Base Adresse Nationale (BAN) est l’une des neuf bases du service public des données de référence et le référentiel d’adresses officiellement reconnu par l’administration. Elle est diffusée en open data sous forme de fichiers, flux et API. Elle montre qu’un commun de la donnée, plus qu’un stock d’informations, est avant tout une infrastructure nationale de référence.
- Son écosystème de publication locale (adresse.data.gouv.fr) permet aux communes de constituer, mettre à jour et publier leur Base Adresse Locale dans la BAN. Elle s’accompagne aussi d’une charte commune de publication et de gouvernance, qui place la commune au centre du dispositif.
- Un géocommun plus récent comme Panoramax, qu’un article de la DINUM présente comme un commun numérique passé avec succès à l’échelle. Initié en 2022 par l’IGN et OpenStreetMap France, il repose dès l’origine sur une architecture décentralisée et interopérable, des standards ouverts et une logique de fédération de serveurs. C’est un exemple intéressant pour penser ensemble contribution, pérennité et souveraineté.
- Côté plateforme, l’infrastructure open source derrière data.gouv.fr : udata est le logiciel libre qui fournit les fonctions centrales de data.gouv.fr. Il est développé de manière ouverte depuis 2013 et a été réutilisé et adapté par plusieurs pays et organismes publics. C’est un bon rappel que le commun concerne tout autant les données publiées que la plateforme qui les rend publiables, découvrables et réutilisables.
UsageRight : ouvrir moins, négocier mieux ? Pour les collectivités, la licence UsageRight (Éric Tannier, Maël Thomas et Alexandre Monnin) n’a sans doute pas vocation à remplacer la licence ouverte des données publiques. Son intérêt apparaît ailleurs : dans les cas où des documents, logiciels, bases locales ou corpus territoriaux alimentent des systèmes d’IA sans retour clair vers les communautés qui les produisent, les financent ou les maintiennent. L’enjeu dépasse l’impératif d’ouverture et revient à conditionner certains usages — entraînement, affinement, redistribution, exploitation — à des formes de réciprocité : attribution, contribution en retour, financement de la maintenance, voire limitation à certains périmètres d’usage. Vu sous cet angle, UsageRight ne s’oppose pas à l’open data ; il répond à une autre situation, celle où la valeur est captée par des acteurs extérieurs sans retour vers les territoires. Il devient alors une piste pour penser des IA plus situées, plus réciproques et mieux gouvernées. Avec un point de vigilance : pour les informations publiques soumises au CRPA, l’administration ne peut pas choisir n’importe quelle licence gratuite : elle doit en principe recourir aux licences listées ou demander une homologation, comme le rappelle le guide d’Etalab. |
Et donc ? L’option clé, plus que jamais, c’est la capacité à gouverner
Le fil rouge de ces 15 années est clair : l’action publique est passée d’un numérique de surface (interfaces, participation, services) producteur de données, à un numérique d’infrastructure (données, cloud, sécurité), assimilable à une infrastructure de calcul, puis à un numérique de modèles qui s’appuie sur les acquis antérieurs (IA génératives). À chaque étape, l’éventail des choix s’est resserré autour d’acteurs capables d’opérer à grande échelle.
Des alternatives existent pourtant qui passent par l’ouverture, lorsqu’elle rend les données réellement réutilisables ; par les standards, lorsqu’ils limitent les verrouillages ; par les communs, enfin, lorsqu’ils permettent de mutualiser, de maintenir et de garantir une forme de réversibilité.
Le chemin parcouru est considérable : l’action publique a appris à numériser ses services, à ouvrir des données, à standardiser certains échanges. La marche qui s’ouvre est plus haute : il lui faut désormais choisir les dépendances qu’elle accepte, celles qu’elle refuse, et aider à crédibiliser les alternatives qu’elle veut rendre possibles.