Adoptée au nom de la protection des mineurs, l’interdiction des réseaux sociaux aux moins de 15 ans marque un tournant politique. Sous couvert de sécurité, elle ouvre la voie à une "gouvernementalité algorithmique" fondée sur le contrôle automatisé des comportements.
par Julien Chassereau
Dans la nuit du 26 au 27 janvier 2026, l’Assemblée nationale a adopté, en première lecture, une loi qui interdit l’accès aux réseaux sociaux aux moins de 15 ans. Portée par la députée Laure Miller et soutenue par le gouvernement avec procédure accélérée, la mesure a été présentée comme une évidence, au nom de la protection de la santé mentale des adolescents contre le cyberharcèlement, l’addiction et l’exposition à des contenus violents.
Sur le papier, le principe est difficile à attaquer. Dans l’hémicycle, les promoteurs de la loi invoquent une « mesure de protection de l’enfance ». Qui oserait s’opposer à la protection des enfants ?
Mais à bien y regarder, cette loi dit en réalité moins de choses sur l’enfance qu’elle n’en dit sur la manière dont notre gouvernement entend désormais administrer la société. Derrière l’objectif affiché se dessine en effet une tout autre logique, celle d’une infrastructure de contrôle, déployée progressivement au nom de causes consensuelles.
Une trajectoire française déjà visible
Cette loi ne surgit pas de nulle part. Elle s’inscrit dans une trajectoire législative qui caractérise la France depuis déjà une décennie et au cours de laquelle on peut voir le gouvernement répondre aux crises sociales et politiques en recourant toujours plus à des dispositifs techniques de traçabilité et de gestion des conduites plutôt que par le débat politique et une volonté de s’attaquer aux causes.
La loi SILT (2017) a intégré dans le droit commun les mesures d’exception de l’état d’urgence post-attentats (assignations à résidence préfectorales sans contrôle judiciaire – rebaptisées MICAS –, perquisitions administratives, fermetures de lieux de culte). Ces dispositifs, initialement présentés comme temporaires et expérimentaux, ont été pérennisés en 2021 – confirmant les craintes d’un « état d’urgence permanent ».
Cette même année 2021, la loi Sécurité globale a autorisé l’usage des drones équipés de caméras par les forces de l’ordre, malgré une mobilisation massive (plusieurs centaines de milliers de manifestants dans toute la France, soutenus par des organisations aussi diverses que la Ligue des droits de l’Homme, Amnesty International, des syndicats de journalistes et des collectifs citoyens. Le Conseil constitutionnel a censuré sept articles de la loi, dont précisément celui sur les drones, jugeant que les garanties étaient insuffisantes. Mais le gouvernement est revenu à la charge quelques mois plus tard avec la loi « Responsabilité pénale et sécurité intérieure » de janvier 2022, qui a réintroduit les drones avec un encadrement minimal. Le principe a donc été validé, et les drones sont aujourd’hui utilisés pour la surveillance des manifestations, des rassemblements sportifs et des frontières.
Deux ans plus tard, la vidéosurveillance algorithmique (VSA) a été légalisée pour les JO Paris 2024, faisant de la France le premier État de l’Union européenne à autoriser explicitement cette technologie. Plusieurs organisations (Amnesty International, La Quadrature du Net, la LDH) y ont immédiatement vu « une atteinte au droit à la vie privée et à la liberté d’expression » – avec un « risque de pérennisation post-JO » qui s’est depuis concrétisé.
Le dispositif expérimenté lors des Jeux (des caméras capables de détecter en temps réel des « comportements anormaux » type mouvements de foule, bagages abandonnés, intrusions) a fait l’objet d’un rapport d’évaluation au bilan « très mitigé », soulignant des performances inégales, des « faux positifs » fréquents, et une saturation policière rendant le système sans utilité concrète. Cela n’a pas empêché le gouvernement de prolonger l’expérimentation jusqu’en 2027, après une première tentative censurée par le Conseil constitutionnel.
Mais la VSA n’a pas attendu les Jeux olympiques pour s’installer. En novembre 2023, une enquête de Disclose révélait que la police nationale utilisait illégalement depuis 2015 le logiciel BriefCam pour analyser a posteriori les images de vidéosurveillance – avec une fonctionnalité de reconnaissance faciale qui a été utilisée au moins une fois. La CNIL a mis en demeure le ministère de l’Intérieur de régulariser cet usage et de supprimer ou brider la reconnaissance faciale. Six communes ont également été mises en demeure de cesser l’utilisation illégale de caméras « augmentées ». Le ministère a promis de se conformer.
Aujourd’hui, nombre d’élus réclament désormais d’aller plus loin et plaident pour la reconnaissance faciale dans l’espace public.
« Je suis pour qu’on aille encore plus loin et qu’on utilise la reconnaissance faciale pour toutes les personnes dangereuses recherchées par les services de police. » Valérie Pécresse, présidente de la région Île-de-France, Le Parisien, 9 mars 2025.
« Je salue la volonté du ministre chargé des Transports, Philippe Tabarot, d’avoir inscrit l’extension de l’utilisation de la vidéosurveillance algorithmique jusqu’à fin 2027 dans la loi et de vouloir travailler concrètement à l’utilisation de la reconnaissance faciale dans les transports. » Martine Vassal, présidente du département des Bouches-du-Rhône, Le Figaro, mars 2025.
Le schéma est en définitive toujours le même. On affirme vouloir apporter des réponses à une menace réelle (terrorisme, violence, addiction) pour justifier un dispositif technique qui, une fois installé, devient permanent et s’étend à d’autres usages.
Le schéma est en définitive toujours le même. On affirme vouloir apporter des réponses à une menace réelle (terrorisme, violence, addiction) pour justifier un dispositif technique qui, une fois installé, devient permanent et s’étend à d’autres usages.
Mise en place d’une gouvernementalité algorithmique
Le terme mérite explication, car il ne désigne pas ce que l’on imagine spontanément. Cette « IA de gouvernement », ce n’est pas un robot qui décide à la place des ministres, ni un algorithme qui vote les lois. C’est quelque chose de plus discret et, précisément pour cela, de plus « efficace ».
Une gouvernementalité algorithmique désigne en effet un ensemble de systèmes techniques qui permettent de gouverner par la donnée et par la norme automatisée. C’est une forme de pouvoir qui ne tranche pas politiquement (elle n’affronte pas, ne négocie pas, ne délibère pas) mais qui organise, qui classe, qui anticipe et normalise les comportements à grande échelle, en s’appuyant sur des infrastructures numériques.
Elle se manifeste par quatre opérations qu’il faut bien comprendre, car elles transforment en profondeur la relation entre l’État et les citoyens.
- La première est l’identification, c’est-à-dire la capacité de relier des comportements en ligne à un même individu dans le temps. Aujourd’hui, vous pouvez théoriquement consulter un site, poster un commentaire, regarder une vidéo, sans que personne ne puisse certifier que c’est la même personne qui a fait ces trois choses. L’anonymat en ligne repose précisément sur cette incertitude.
La vérification d’âge, en exigeant une preuve d’identité à l’entrée, fait sauter ce verrou. Une fois que chaque connexion est rattachée à une identité stable, le suivi devient possible.
La vérification d’âge, en exigeant une preuve d’identité à l’entrée, fait sauter ce verrou. Une fois que chaque connexion est rattachée à une identité stable, le suivi devient possible.
- La deuxième opération est celle de la classification. Il s’agit de trier les contenus et les personnes en catégories, selon des critères de risque, de conformité, de danger ou de nuisance. C’est ce que font déjà les algorithmes de modération des plateformes lorsqu’ils décident qu’un commentaire est potentiellement haineux, une image trop violente ou qu’un compte a un comportement suspect. Mais ces mêmes logiques peuvent s’appliquer aux citoyens eux-mêmes. En Chine, le crédit social classe les individus en « dignes de confiance » ou « à surveiller ». En France, les fichiers de police catégorisent déjà les personnes selon leur degré supposé de « dangerosité ».
- La troisième opération est l’anticipation. Il ne s’agit plus seulement de savoir ce que vous avez fait, mais de prédire ce que vous allez faire. Les algorithmes cherchent à détecter des signaux faibles, à repérer des récidives potentielles avant qu’elles ne se produisent, et à identifier des profils dits « à risque ». Cette logique préventive est déjà à l’œuvre dans la police prédictive expérimentée dans certaines villes, ou dans les algorithmes des CAF qui calculent un « score de suspicion » pour cibler les contrôles sur les allocataires jugés statistiquement plus susceptibles de fraude.
- La quatrième opération, enfin, est l’orientation. C’est sans doute la plus insidieuse. Il s’agit d’agir sur les comportements sans interdiction explicite, par des moyens détournés. On ne vous dit pas « c’est interdit », mais on rend la chose difficile, invisible ou coûteuse. C’est ce qu’on appelle la « friction » dans le jargon des designers. Un contenu peut être déréférencé sans être supprimé, un compte peut être « shadowban » (rendu invisible aux autres sans que son propriétaire le sache), un service peut exiger tant de vérifications qu’on finit par renoncer.
Les philosophes du droit Antoinette Rouvroy et Thomas Berns parlent de gouvernementalité algorithmique pour désigner un gouvernement « nourri essentiellement de données brutes, opérant par configuration anticipative des possibles plutôt que par réglementation des conduites » (« Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013).
En somme, on ne vous dit pas ce que vous devez faire, on configure l’environnement pour que vous fassiez ce qu’on attend de vous.
Le mécanisme de la loi du 26 janvier ou comment l’interdiction devient infrastructure
Pour comprendre comment une loi de « protection de l’enfance » devient un outil de contrôle généralisé, il faut suivre le mécanisme technique qu’elle implique.
La proposition de loi arrive après un épisode instructif. Mi-janvier 2026, le Conseil d’État a rendu un avis pointant un risque de non-conformité au droit européen : le règlement sur les services numériques (DSA) interdit aux États membres d’imposer des obligations supplémentaires aux plateformes – seule la Commission européenne peut le faire. Le texte a donc été réécrit. Plutôt que d’obliger les plateformes à vérifier l’âge de leurs utilisateurs (ce qui serait illégal), la loi se contente désormais d’énoncer un principe : « l’accès à un service de réseau social en ligne est interdit aux mineurs de 15 ans ». L’interdiction vise les mineurs, pas les plateformes. Mais puisque les comptes de moins de 15 ans deviennent illicites en droit français, les plateformes seront – en théorie – contraintes de mettre en œuvre une vérification d’âge pour ne pas héberger de contenus illégaux. C’est ce que la rapporteure du texte, Laure Miller, appelle une « approche par ricochet », qui consiste à ne pas imposer directement, mais à forcer indirectement. Elle reconnaît elle-même être « dans l’expérimentation ».
Ce détail compte énormément. Car on voit se dessiner une stratégie politique typique des régulations numériques actuelles qui consiste à afficher un principe national consensuel, puis renvoyer l’opérationnalisation à l’écosystème technique et au cadre européen. En somme, l’État pose l’objectif, mais ce sont les plateformes et les prestataires techniques qui construisent l’infrastructure.
Or, pour rendre l’interdiction « réelle », il faut un dispositif de vérification d’âge – ce que les professionnels du secteur appellent « age assurance » (assurance d’âge). Ce terme anglais désigne l’ensemble des méthodes permettant de s’assurer qu’un utilisateur a bien l’âge requis pour accéder à un service.
Et c’est là que le problème se révèle. Car la vérification d’âge, dans le monde numérique réel, signifie presque toujours davantage d’identification, davantage de traces et davantage de dispositifs automatisés. Les méthodes « légères » (simple déclaration, case à cocher) sont aisément contournables (et servent surtout d’affichage). Alors que les méthodes « fortes » (vérification d’identité, analyse faciale, recours à des tiers de confiance) augmentent la collecte de données et créent de nouveaux risques avec la constitution de fichiers centralisés, de possibles erreurs d’identification, l’exclusion des personnes « sans papiers numériques » (personnes âgées peu familières du numérique, personnes en situation de précarité sans smartphone ou sans accès internet stable, personnes sans compte bancaire – pour les vérifications par carte –, personnes sans pièce d’identité valide ou à jour – mineurs non accompagnés, sans-domicile, personnes en situation irrégulière – ou encore les personnes qui refusent par principe de s’identifier en ligne), etc.
Pourquoi l’inefficacité est quasiment certaine
Il existe déjà en France une « majorité numérique » à 15 ans, inscrite dans la loi du 7 juillet 2023, qui précise que les plateformes doivent refuser l’inscription des mineurs de 15 ans sauf autorisation parentale. Or cette loi n’est pas appliquée, faute de décret d’application et d’aval européen. L’État français revient donc, en 2026, avec une promesse plus dure, plus visible, plus spectaculaire, alors même qu’il n’a pas su faire appliquer le cadre existant. Lorsqu’un pouvoir échoue à appliquer une règle simple, puis annonce une règle plus ambitieuse mais techniquement plus complexe, on a le droit de douter de la finalité réelle.
Un détour par les expériences étrangères confirme que l’on peut nourrir des doutes sur l’efficacité de l’interdiction pure et simple. L’Australie a adopté une loi similaire imposant aux plateformes d’empêcher les moins de 16 ans d’avoir des comptes, avec entrée en vigueur en décembre 2025. Résultat, 4,7 millions de comptes ont déjà été fermés, mais on semble assister à un contournement massif via le recours des jeunes aux VPN, de faux comptes et le repli sur des applications alternatives. Les téléchargements de l’application Yope ont ainsi bondi de 251%, ceux de Lemon8 de 88 %. Comme le résume un adolescent australien, « c'est un peu inutile. On va simplement créer de nouvelles façons d'accéder à ces plateformes » (Publié par Reuters le 2 décembre 2025).
Au Royaume-Uni, l’Online Safety Act, adopté en 2023, impose aux plateformes hébergeant du contenu adulte ou « potentiellement dangereux » (pornographie, mais aussi contenus relatifs à l’automutilation, aux troubles alimentaires, etc.) de vérifier l’âge de leurs utilisateurs par des méthodes « hautement efficaces » telles que la reconnaissance faciale, la pièce d’identité ou la carte bancaire. Et l’obligation s’étend bien au-delà des sites pornographiques : des plateformes comme Reddit, Discord ou X sont également concernées. Or, là aussi, lors de l’entrée en vigueur des vérifications d’âge, en juillet 2025, Proton VPN a enregistré une hausse de plus de 1 400 % des inscriptions britanniques en seulement quelques heures. Qu’il s’agisse d’adultes refusant de livrer leurs données personnelles ou de mineurs contournant le dispositif, ce chiffre illustre bien le paradoxe de ces législations qui manquent leur cible tout en imposant une infrastructure d’identification à ceux qui s’y soumettent.
Pékin a imposé un « mode mineur » obligatoire sur tous les appareils, limitant le temps d’écran selon l’âge. Or, comme le note MIT Technology Review dans un article sur les projets de lois de sécurité des enfants aux États-Unis, certaines mesures qui se présentent comme protectrices risquent d’éroder la vie privée et les libertés en ligne, parce qu’elles imposent des vérifications d’identité, des obligations de collecte de données et un filtrage de contenu sous couvert de « sécurité des mineurs ». (Tate Ryan-Mosley, MIT Technology Review, 24 avril 2023).
Si la loi ne protège pas, que fait-elle vraiment ?
Pour contourner une vérification d’âge, il faut savoir installer un VPN, disposer d’un appareil personnel non surveillé, ou avoir accès à des comptes alternatifs. Or, ces ressources (techniques, matérielles, voire culturelles) ne sont pas également distribuées. Un adolescent dont les parents maîtrisent le numérique et disposent de plusieurs appareils connectés trouvera plus aisément une solution de contournement. Ses parents pourront même l’accompagner dans un usage raisonné des plateformes. À l’inverse, un adolescent issu d’un foyer moins équipé, dont les parents sont moins à l’aise avec le numérique, sera plus exposé aux effets bruts de la loi (blocages, fermetures de comptes, erreurs d’identification, incompréhension face aux procédures).
Ce mécanisme est clairement documenté pour d’autres dispositifs de contrôle numérique. Aux États-Unis, les chercheurs qui ont étudié les lois de vérification d’âge pour l’accès à la pornographie dans certains États ont observé que les usagers les plus éduqués migraient immédiatement vers des VPN, tandis que les autres renonçaient ou s’exposaient aux risques liés à la transmission de leurs données personnelles.
De même, les études sur le contrôle parental montrent que son efficacité dépend fortement du capital culturel des familles.
Dans tous les dispositifs de contrôle, l’inégalité n’est donc pas un dommage collatéral, c’est une propriété structurelle. La loi ne protège pas « les enfants » en général, elle protège davantage ceux qui avaient déjà les moyens de se protéger, et expose davantage ceux qui étaient déjà vulnérables.
Ensuite, et peut-être même surtout, du fait que ce que cette loi produit réellement, c’est une infrastructure, pas une protection. Elle installe dans le droit et dans les mœurs l’idée – voire le principe – que l’accès à un espace social majeur de la vie contemporaine (qu’on le regrette ou qu’on s’en réjouisse) doit être conditionné à une forme d’authentification. Or, dès qu’une société accepte l’authentification comme norme d’accès, elle accepte la traçabilité comme horizon.
« Pour prospérer dans le cyberespace, le commerce exige des "architectures d’identité" – des architectures qui permettent l’identification pour permettre le commerce. Avec ou sans intervention de l’État, ces architectures seront ajoutées au réseau pour le rendre plus efficace au service du commerce ; avec ou sans intervention de l’État, la possibilité de réguler – et la perte de liberté qui l’accompagne – sera le sous-produit de ces changements. »
Lawrence Lessig, Code and Other Laws of Cyberspace, 1999.
Le glissement est discret. Il se fait au nom d’une cause inattaquable – la sécurité de nos enfants (dont on nous demandait, il y a peu, d’accepter le sacrifice). « Mieux encore », le dispositif s’inscrit dans une logique européenne où les plateformes doivent « protéger les mineurs » conformément à des lignes directrices publiées par la Commission. La loi française s’adosse clairement à ce cadre. Thomas Regnier, porte-parole de la Commission, a d’ailleurs rappelé que « la Commission et les autorités chargées du DSA sont les seules entités qui peuvent imposer des obligations supplémentaires aux très grandes plateformes » (27 janvier 2026) ; ce qui accentue encore la logique de gouvernance par infrastructure plutôt que par débat national.
Ce que révèlent les choix du gouvernement
- Première préférence, ne pas attaquer les causes économiques. Tout le monde sait que l’addiction aux réseaux sociaux est produite par des modèles publicitaires, des algorithmes de recommandation, des interfaces de captation. Aza Raskin, l’inventeur du scroll infini (ce défilement sans fin qui vous fait rester « encore un peu »), exprime aujourd’hui ses regrets et considère, pour illustrer la toxicité de la chose que « c’est comme si les entreprises de réseaux sociaux prenaient de la cocaïne comportementale et la saupoudraient sur toute votre interface » (interview accordée à la BBC, émission Panorama, 2018). De même, Tristan Harris, ex-Google et cofondateur du Center for Humane Technology, explique que les smartphones fonctionnent comme des machines à sous : « chaque fois que je consulte mon téléphone, je joue à la machine à sous pour voir ce que j'ai reçu. » Le mécanisme est ici le même, avec un système de « récompenses variables intermittentes » qui maximisent l'addiction. (« How Technology Hijacks People's Minds », Medium, 2016).
Pourtant, au lieu de s’attaquer à l’économie de l’attention, le gouvernement préfère renforcer l’économie de l’identification.
- Deuxième préférence, remplacer l’éducation par la gestion. Plutôt qu’une politique ambitieuse d’éducation critique au numérique, de moyens scolaires, de prévention de la santé mentale, de médiation, et encore de justice contre le harcèlement, on opte pour une solution pénalisante et on délègue l’effectivité à une vérification automatisée. C'est un peu comme traiter l'addiction à la drogue par le sevrage forcé, sans toucher à l'environnement qui pousse à consommer : le produit reste là, les dealers continuent de vendre, et le problème demeure. Ce qu'on sait pourtant depuis des décennies sur les politiques de drogues – que l'interdiction seule ne fonctionne pas, que c'est la prévention, l'accompagnement et la transformation des conditions de vie qui font reculer l'addiction – est ici totalement ignoré. C’est typiquement ce qu’on appelle le « solutionnisme », qui consiste à traiter un problème social complexe comme un problème technique simple. L'Hadopi en fut une illustration parfaite. Cette solution technique pour lutter contre le téléchargement illégal aura coûté 82 millions d'euros en dix ans pour traquer (et rapporté pour 87 000 euros d'amendes soit un ratio de 1 pour 1000), pendant que les pirates migraient tranquillement vers le streaming. Et le pourcentage de téléchargeurs illégaux n'a jamais baissé.
« Les solutionnistes, en voulant résoudre le problème, le tordent d'une façon si lamentable et inhabituelle que lorsqu'ils en viennent à bout, il est devenu une tout autre chose. » - Evgeny Morozov, Pour tout résoudre, cliquez ici. L'aberration du solutionnisme technologique, 2014
- Troisième préférence, stabiliser la traçabilité au nom du consensus moral. L’enfance est un levier parfait. On n’interdit pas « pour contrôler », on interdit « pour protéger ». Et une fois acceptée l’idée qu’il faut prouver son âge pour accéder à certains espaces numériques, la pente est forte vers d’autres justifications « nécessaires » comme lutter contre la haine, contre le harcèlement, contre la désinformation, contre la radicalisation, contre les ingérences... Ce mécanisme historique est lui aussi bien connu, qui veut que l’exception finisse par devenir la norme. Ainsi l'état d'urgence de 2015, présenté comme temporaire, qui a été prolongé six fois avant que ses principales mesures soient intégrées au droit commun en 2017. Ainsi le fichier national des empreintes génétiques, créé en 1998 pour les seuls délinquants sexuels, qui couvre aujourd'hui la quasi-totalité des crimes et délits et contient plus de cinq millions de profils. Et l'on vient de voir comment la vidéosurveillance algorithmique, autorisée à titre « expérimental » pour les Jeux olympiques de 2024, a déjà été prolongée jusqu'en 2027.
Dans ce mouvement, l’État ne devient pas plus protecteur, il devient plus dépendant d’une infrastructure d’identification et de contrôle. Et cette dépendance est exactement le terreau des IA de gouvernement. Sans identités stables et sans traces exploitables, pas de scoring (notation automatisée des individus), pas de détection automatisée robuste, pas de sanctions graduées « efficaces ».
Personne ne conteste la nécessité de protéger les adolescents. La vraie question en revanche de savoir si moyens choisis sont efficaces pour atteindre cet objectif, ou servent-ils d’autres fins ?
Car enfin, soyons sérieux. Rien n'empêche un parent ou un ami qui a l’âge, voire un « prestataire » qui monétisera son service, de créer un compte pour un mineur de moins de 15 ans. La vérification d'âge ne peut garantir que la personne qui utilise le compte est bien celle qui l'a créé. Pour que le dispositif fonctionne réellement, il faudrait aller beaucoup plus loin et mettre en place une authentification biométrique à chaque connexion, une surveillance continue des usages, une détection des comportements « incohérents ». Bref, une escalade de contrôles que personne n'oserait défendre publiquement… pour l'instant.
Dans ce mouvement, l’État ne devient pas plus protecteur, il devient plus dépendant d’une infrastructure d’identification et de contrôle. Et cette dépendance est exactement le terreau des IA de gouvernement. Sans identités stables et sans traces exploitables, pas de scoring (notation automatisée des individus), pas de détection automatisée robuste, pas de sanctions graduées « efficaces ».
Personne ne conteste la nécessité de protéger les adolescents. La vraie question en revanche de savoir si moyens choisis sont efficaces pour atteindre cet objectif, ou servent-ils d’autres fins ?
Car enfin, soyons sérieux. Rien n'empêche un parent ou un ami qui a l’âge, voire un « prestataire » qui monétisera son service, de créer un compte pour un mineur de moins de 15 ans. La vérification d'âge ne peut garantir que la personne qui utilise le compte est bien celle qui l'a créé. Pour que le dispositif fonctionne réellement, il faudrait aller beaucoup plus loin et mettre en place une authentification biométrique à chaque connexion, une surveillance continue des usages, une détection des comportements « incohérents ». Bref, une escalade de contrôles que personne n'oserait défendre publiquement… pour l'instant.
Face à cette évidence technique, on peut donc formuler deux hypothèses. La première, la plus charitable, est celle de l'incompétence. Les législateurs n'auraient tout simplement pas compris les limites de ce qu'ils votent et se paieraient de mots en pensant sincèrement protéger les enfants. La seconde, moins rassurante, est celle de l'intention masquée. L'objectif réel ne serait pas tant de protéger les mineurs que d'installer, sous couvert d'un consensus moral inattaquable, l'infrastructure qui permettra demain d'aller plus loin.
Malheureusement, tout ce que l'on sait de la généalogie des dispositifs de surveillance invite à redouter que la seconde hypothèse soit la bonne. Car au fond, l'alternative est simple. Soit on assume un affrontement avec les plateformes sur les causes structurelles — donc sur leur architecture et leur modèle économique —, soit on adopte des mesures dont l'efficacité est douteuse, mais qui ont l'effet certain de normaliser l'accès conditionné, d'accroître la traçabilité et de rendre acceptable une gestion automatisée des comportements.
Le texte de loi adopté le 26 janvier 2026 ressemble malheureusement beaucoup plus au second choix. Et pour cause ! Elle s’inscrit en réalité parfaitement dans la situation politique française caractérisée par une crise de légitimité inédite, une défiance record vis-à-vis d’un gouvernement qui ne parvient plus à construire du consentement, et recourt toujours plus à des instruments technico-administratifs. La réponse de ce gouvernement est, une fois de plus, de gouverner moins par le compromis social que par l’architecture des systèmes.
Nul besoin d’évoquer un futur dystopique pour comprendre que le danger existe déjà dans ce présent bureaucratique où l’espace public numérique se transforme en espace conditionnel, où exprimer son opinion nécessite de s’identifier, où exister politiquement c’est devenir traçable, et où contester c’est s’exposer.
