Pour éphémère qu’elle fut, la République de Weimar a solidement ancré cette idée dans l’imaginaire occidental : la démocratie se distingue par l’abolition de la censure. Dans sa Constitution de 1919, on trouve cette affirmation : « Aucune censure n’a lieu » (Eine Zensur findet nicht statt). Aujourd’hui encore, les démocraties du monde occidental se targuent d’avoir mis un terme à l’institution de la censure. Sauf à compromettre la protection de la jeunesse ou la sécurité nationale, tout, absolument tout, peut être librement discuté sur la place publique ; pas de sujet qui n’ait à passer au préalable le crible de la censure d’État. Voilà pour la théorie.

Spirales de silence et bulles de filtre

Car en réalité, nos sociétés télématiques se caractérisent encore toujours par des mécanismes d’exclusion. Ceux qui nous chantaient les louanges des réseaux numériques en tant que puissants vecteurs d’une diversification de l’information – et donc d’une vision d’ensemble plus exacte – se sont manifestement bercés d’illusion. En vérité, c’est précisément la compulsion à communiquer qui a généré des nouvelles tendances à l’uniformisation, lesquelles ont, à leur tour, engendré de nouvelles formes de censure. Le phénomène de la « spirale du silence » est bien connu : les individus ont tendance à s’adapter à leur environnement d’opinion, et s’ils ont l’impression que leur position se situe à contre-courant des discours dominants, ils auront tendance à ne pas l’exprimer, enclenchant ainsi une spirale vicieuse, où les opinions perçues comme divergentes disparaîtront progressivement de l’espace public1.

Il y a peu, des phénomènes comme le référendum sur le Brexit ou les élections présidentielles aux États-Unis ont fait prendre conscience que le rêve d’une démocratie virtuelle, éclairée par les Lumières de l’intelligence distribuée, est bien mort. Le dernier scandale en date, celui de la société britannique Cambridge Analytica, qui a procédé à un siphonnage en règle des données personnelles de 50 millions d’utilisateurs Facebook, fournit la preuve, s’il en fallait, que les réseaux sociaux sont beaucoup moins des espaces de libre expression que des espaces de contrôle. À chaque clic, à chaque « j’aime », touche après touche, nous perfectionnons le portrait-robot que les machines se font de nous, un portrait étonnamment précis qui nous cerne dans nos champs d’intérêt, dans notre sexe, notre profession et nos orientations politiques ; des informations cruciales qui peuvent être revendues à des acteurs privés ou étatiques, qui pourront ensuite cibler les individus avec des messages publicitaires ou des communications de nature politique, sans mentionner les mesures répressives de futurs gouvernements illibéraux. Même si l’on n’établira sans doute jamais avec certitude dans quelle mesure l’élection présidentielle américaine a été biaisée par les données achetées à Cambridge Analytica, on peut affirmer dès à présent que l’Internet democracy, vantée pour sa transparence, est au moins tout aussi vulnérable aux trafics d’influence que toutes les formes précédentes de gouvernement.

Contrairement à ce qu’avaient imaginé les pionniers d’Internet, l’espace public numérique n’est ni continu ni perméable, mais consiste en fait en une succession d’innombrables bulles de filtre (les filter bubbles2). Tout en donnant l’impression d’être translucides, ces bulles sont parfaitement insonorisées : les utilisateurs n’ont pour seul écho que des opinions avec lesquelles ils sont déjà familiers, tandis que les autres ne peuvent pas percer la membrane. La faute incombe notamment à l’extrême personnalisation des offres numériques, qui prétendent coller au plus près des intérêts véritables. En effet, l’historique de recherche révèle scrupuleusement les intérêts et les versants de chaque utilisateur, et certains instituts de sondage préconisent désormais d’abandonner les enquêtes d’opinion, considérées trop peu fiables, pour s’appuyer sur les données monnayées par les moteurs de recherche : le masque de saisie devient le réceptacle de toutes les requêtes que l’on n’ose pas même avouer au sondeur anonyme venu nous interroger sur nos opinions3. Les entreprises telles que Cambridge Analytica vantent leurs services en s’appuyant sur des études scientifiques, qui établiraient qu’une dizaine de « likes » permettent à un algorithme de mieux cerner la personnalité d’un individu que son collègue de bureau, avec 70 « likes », l’ordinateur dépasserait déjà l’avis d’un ami et une fois arrivé à 150 « j’aime », il en saurait plus qu’un membre de sa famille.

Les opacités de la transparence algorithmique

Tout cela alimente l’immense système d’évaluation que constitue le Net, depuis PageRank de Google via les scores sur Airbnb jusqu’aux palmarès photographiques sur Flickr. On aurait tort de voir dans le big data une sorte d’immense archive neutre ; il oriente également, par les propositions d’auto-complétion, les désirs et les intérêts. Sur la base des profils d’utilisations, et grâce à des systèmes de pronostic statistique, on peut déterminer un échantillonnage préférentiel, afin de coupler des penchants individuels avec des contenus suggérés. L’algorithme n’affichera jamais que ce que l’usager recherche véritablement, qu’il l’ait déjà su ou pas, si bien que la personnalisation extrême consiste surtout à rendre un usager pareil à ses pairs, soutenant indirectement ce qu’on a aussi appelé l’« insularité cognitive ».

Il n’est pas de la vocation des algorithmes, tels qu’ils sont mis en place sous le régime actuel, de promouvoir une société plus critique et plus perméable. Pas étonnant que les boucles rétroactives, sur lesquelles se base tout algorithme, fassent émerger de l’identique, et non du différent. Au nom de plus de transparence, les activistes du Net réclament que les logiciels à la base du travail des moteurs de recherche soient enfin rendus accessibles, pour vérifier s’ils ne contiennent pas des biais internes, servis par des intérêts commerciaux. Mais là encore, la promesse d’un regard dans la boîte noire n’est qu’un leurre. La publication des lignes de code ne permettrait pas de résoudre le problème, et ne ferait que le déplacer : déjà aujourd’hui, l’optimisation des moteurs de recherche (SEO pour Search Engine Optimization), afin de figurer en bonne place dans la liste des résultats, a enclenché une course au lobbyisme digital où des critères comme la pertinence ou la vérité n’ont plus de place 4. Mettre ces algorithmes à la disposition de tous permettrait alors de briser les positions de quasi-monopole occupées par certains acteurs, mais les fournisseurs concurrents qui s’en saisiraient ne se mettraient pas pour autant au service du bien commun. Le gain en termes de transparence ne ferait alors que corréler avec une vision encore plus économique et fonctionnalisée de l’information.

Ce qui vaut pour les moteurs de recherche peut être élargi pour les réseaux numériques en général. L’obligation de fournir aux usagers individuels des offres taillées toujours plus sur mesure mène à une perception soumise à de fortes distorsions. L’espace public n’est plus qu’une façade, et l’ouverture promise par les réseaux que l’on qualifie – bien curieusement – de « sociaux », correspond bien souvent à l’enfermement dans sa propre chambre à réverbérations. Ainsi, Facebook offrira des informations différenciées à chacun de ses membres, en privilégiant les notifications des sources et des personnes avec lesquelles l’usager interagit le plus souvent. Difficile dans ces conditions d’entendre par pluralisme le fait d’envisager une même chose – la res publica par exemple – depuis plusieurs points de vue, puisque ce qui se met en place, en réalité, c’est une multiplicité de bulles communicationnelles indépendantes les unes des autres, et dont chacune prétend à un concept de vérité qui lui est propre. L’espoir jadis nourri qu’Internet pourrait fournir cet espace libéré de l’arbitraire du pouvoir, et où ne régnerait que la « contrainte du meilleur argument », cet espoir s’est avéré naïf.

Vers un nouvel intégrisme numérique ?

Contrairement à ce qu’on continue d’affirmer, l’âge de la censure n’a donc pas été remplacé par un âge de la transparence, et il est d’ailleurs impossible qu’il le soit. Loin de mettre un terme à la censure, la transparence représente une forme nouvelle, particulièrement efficace – car imperceptible – de police des mœurs. Celle-ci est désormais chose du passé, mais en revanche, de nouvelles formes de contrôle font leur entrée. Les instances de filtrage ne sont plus imposées par un pouvoir étatique central, puisqu’elles sont la résultante d’une grille algorithmique qui n’admet plus que les informations désirées par l’utilisateur situé au bout de la chaîne. À la différence de l’arcanuum imperii que l’Ancien Régime s’est vu contraint de partager sous l’attaque des révolutionnaires, c’est désormais le sujet lui-même qui tombe sous l’impératif de la divulgation : les médias sociaux sont, avant toute chose, des espaces de subjectivation dans lesquels les individus sont enjoints à se rendre transparents. Voilà pourquoi les démocraties participatives relèvent d’une culture de l’auto-inspection narcissique, où l’individu oscille constamment entre l’autocélébration et l’injonction à confesser.

« Si vous n’avez rien à cacher, vous n’avez rien à craindre », voilà le mantra du transparentisme, et dans cette logique, il s’agit de prouver à tout instant – par une mise à nu généralisée – que rien n’est dissimulé. Or ce raccordement volontaire des sujets aux réseaux de communication est encouragé par un système automatique de gratifications pulsionnelles, qui répondent par des likes et autres notifications interposées à un besoin de reconnaissance supposé vital. La nouvelle forme de l’interpellation ne vient plus du policier, mais du bot de Facebook. Au lieu de devoir décliner son identité, la question sera désormais « que fais-tu en ce moment ? ». À tout instant, il faut faire ses preuves en tant que sujet actif, s’actualiser à tout moment, se mettre à jour, rafraîchir sa présence virtuelle et être dans le « partage ».

Par ailleurs, le mantra transparentiste, dont on commence aujourd’hui à mieux comprendre l’émergence5, est suffisamment flou pour s’accommoder de ces deux versions : de toute manière, vous n’avez rien à cacher, et quand bien même vous pensiez avoir des choses à cacher, il faut changer d’attitude. Mise en place par les services secrets, la surveillance de masse n’est aujourd’hui plus qu’un secret de polichinelle ; les citoyens se savent pistés, ils savent qu’ils ne peuvent plus effacer les traces, et cela induit une transformation lente, mais inexorable des comportements. Dans une sorte d’obéissance servile, le citoyen transparent se conforme à des attentes supposées de conformité, et s’astreint, par des actes d’autocensure, à un nouvel impératif de discrétion. À l’hyper-transparence que l’on constate d’un côté, correspond une cécité croissante de l’autre, par effet d’œillères dûment « partagées ».

Si la nature de ce nouveau mécanisme de sélection nous échappe encore, c’est parce que nous restons prisonniers d’une conception moderne – et prohibitive – de ce qu’est la censure. Pourtant, à ses origines, la censure ne procédait pas par la prohibition, mais par l’exposition publique. Le régime de transparence qui caractérise notre époque se reconnecte de près à l’institution latine du census. La tâche des magistrats-censeurs de la république n’était pas d’interdire, mais de recueillir des données sur les individus et leurs comportements, bref de recenser les vies (aujourd’hui encore, aux États-Unis, l’agence de recensements s’appelle Bureau of census). En décidant d’afficher publiquement certaines de ces données, et de jouer sur la réputation des citoyens, les censeurs pouvaient donc indirectement contrôler les conduites. Bien connue des réseaux sociaux contemporains, la procédure du « naming and shaming » (la mise au pilori social), trouve ici ses antécédents. Bien avant sa version répressive, la censure consiste à dresser un constat, et, indirectement, à procéder à un dressage des comportements. Voilà les deux faces du census : établir et réguler, estimer et orienter ; en recensant, on établit ce que les individus sont « censés » être.

Au XVIe siècle, certains jurisconsultes comme Justus Lipsius ou Jean Bodin exhument cette tradition romaine, et recommandent aux princes la réintroduction de l’institution du census. Dans le dernier de ses Six livres sur la république, Bodin propose cependant un changement de taille : le rôle des censeurs n’est plus limité à des magistrats, mais sera confié à l’ensemble des citoyens, qui devront dorénavant se surveiller les uns les autres6. Bodin balaie d’ailleurs d’un revers de main l’argument de tous ceux qui prétendent pouvoir s’arroger un droit à la vie privée :

« De dire qu’il n’est pas bon qu’on sache le train, la trafique, la négociation des marchands, qui gît bien souvent en papiers et en crédit : qu’il n’est pas bon aussi qu’on évente les secrets des maisons et des familles. Je réponds qu’il n’y a que les trompeurs, les pipeurs et ceux qui abusent des autres, qui ne veulent pas qu’on découvre leur jeu, qu’on entende leurs actions, qu’on sache leur vie : mais les gens de bien qui ne craignent point la lumière prendront toujours plaisir qu’on connaisse leur état, leur qualité, leur bien, leur façon de vivre.7 »

Bodin ajoute encore une anecdote, qui a été préservée dans une source romaine du début de l’époque impériale : « Un architecte dit un jour au Tribun Drusus qu’il ferait l’ouverture de sa maison en sorte que personne n’aurait vue sur lui. Mais je te prie, dit alors Drusus, fais en sorte qu’on puisse voir de tous côtés ce que j’ai en ma maison : aussi Velleius Paterculus, qui récite l’histoire, dit que cet homme-là était sanctus et integer.8 » La moralisation des conduites visée par Bodin renvoie, ce n’est pas un hasard, à une certaine conception de l’intégrité, qui témoigne encore d’une conception statique de la subjectivité.

Aujourd’hui, c’est encore une telle conception immobiliste qui prévaut, quand on sait l’effet de la traçabilité de nos moindres faits et gestes : même un hypothétique « droit à l’oubli » numérique ne changera pas le fait que la mémoire profonde des réseaux nous confronte à nos actes et nos propos passés, dont on devra endosser la responsabilité jusqu’à la fin de nos jours. Le PDG de Facebook, Mark Zuckerberg, exprime admirablement bien cette idée, lorsqu’il soutient qu’« avoir deux identités, c’est faire preuve d’un manque d’intégrité ».

La censure existe donc bien aujourd’hui, même si elle ne prend plus les mêmes formes qu’à l’époque de l’Ancien Régime : au mécanisme de prohibition se substituent des mécanismes de sélection plus immanents, qui passent notamment par une normalisation des conduites. Cette censure, d’un type post-répressif, se situe à la fois en deçà et au-delà de la loi – là-dessus, les formes contemporaines convergent avec le census romain. D’une censure disciplinaire, pourrait-on résumer, on est passé à une censure de l’auto-contrôle qui est propre à une certaine modernité tardive, tout en renvoyant à une époque prémoderne.

Évitons tout malentendu : en dénonçant ces nouvelles modalités de la censure, il ne s’agit pas de militer en faveur d’une fin de toute censure. Une société affranchie de toute instance de censure ne sera jamais rien d’autre qu’une chimère : dans toute culture, il y a inévitablement des « instances de censure ». Rappelons que selon la thèse de Freud, développée dans Le Malaise dans la civilisation, la censure constitue l’acte fondateur de toute civilisation humaine. Qu’un espace public ait des angles morts, ce n’est peut-être pas tant cela qui doit nous inquiéter, mais plutôt le fait que seul quelques-uns aient le privilège de décider de leur angle d’ouverture. Autrement dit, ce qui fait toujours défaut, c’est une attitude véritablement critique dans notre interaction quotidienne avec et par le biais des appareils. Le maître-mot de la transparence éclipse le véritable débat : la transparence n’est pas un substitut à la liberté de parole et elle est encore moins une caution à un débat critique.

L’ironie de l’histoire est palpable. « Tu ne peux pas ne pas communiquer » soutenaient les linguistes de l’école californienne de Palo Alto, dans les années 1970. Il s’agissait d’illustrer le fait que même un silence obtus restait un acte communicationnel. Quelques décennies plus tard, Palo Alto est incorporé à la Silicon Valley. Sur les réseaux sociaux, le « tu ne peux pas ne pas communiquer » a pris une nouvelle forme. Ce qui avait pour vocation de décrire une impossibilité de fait s’est désormais mué en une injonction : « Tu ne peux pas ne pas vouloir te rendre transparent ». Or en contraignant les sujets à être conformes à eux-mêmes, ceux-ci se conforment étrangement à des normes de subjectivité qui les dépouillent de leurs capacités de résistance. Mais si la transparence n’est jamais suffisante, et qu’elle reste toujours, aux yeux de ces exigences sociales, à faire, cela signifie aussi que rien n’est joué d’avance. Le transparentisme n’est pas une fatalité : d’autres manières de faire sont parfaitement possibles.

1 La logique de la « spirale de silence » a été théorisée la première fois par la sociologue de la communication Élisabeth Noelle-Neumann (« The spiral of silence : a theory of public opinion », Journal of Communication, no 24 [1974], p. 43-54).

2 Eli Pariser, The Filter Bubble, New York, Penguin, 2011.

3 Voir sur ce point, Dominique Boullier, « Les sciences sociales face aux traces du Big Data : société, opinion, vibrations », Revue Française de Science Politique, vol. 65, no 5-6, 2015.

4 Le développement de l’apprentissage-machine (machine learning, deep learning) porte par ailleurs un coup fatal aux idéaux originels de transparence puisque leur opacité paraît s’accroître en proportion même de leur efficacité : même leurs programmeurs ne savent pas quels critères sont pris en compte avec quel taux exact de pondération. Voir sur ce point Hubert Guillaud et Rémi Sussan, « L’intelligence artificielle va-t-elle rester impénétrable ? », Internet Actu, Le Monde, 30 octobre 2016.

5 Cf. les contributions rassemblées dans l’ouvrage Transparency, Society, Subjectivity. Critical Perspectives, s.l.d. Emmanuel Alloa & Dieter Thomä, Basingstoke, Palgrave Macmillan, 2018.

6 Dans un ouvrage remarquable, Thomas Berns a mis en relief la pertinence contemporaine de cette réflexion sur l’usage politique de la statistique et ses effets sur l’institution de la censure (Cf. Thomas Berns, Gouverner sans gouverner. Une archéologie politique de la statistique, Paris, PUF, 2009).

7 Jean Bodin, Les Six Livres de la République [1576], éd. Christiane Frémont et al., Paris, Fayard, 1986, VI, 1.

8 Ibid.