La mise en corrélation inédite des données numériques semble créer un double du réel parfaitement adéquat : c’est cela qui cause tant d’effroi tout en rendant ses opérations normatives invisibles, par ce curieux paradoxe par lequel un opérateur de transparence doit précisément s’effacer. Permettre de voir, c’est ne pas être vu. Après avoir défini globalement la nature du rapport au réel à partir duquel la transparence gouverne, nous nous pencherons sur le fonctionnement de la « gouvernementalité algorithmique1 », qui en constitue un exemple hautement symptomatique, en questionnant son opération de représentation du réel comme celle d’un langage, à l’aide de Jacques Derrida. Nous voulons montrer ainsi l’écart entre le mouvement langagier de reprise et d’altération, qui permet la subjectivation, et les répétitions machiniques opérées par la gouvernementalité algorithmique, et ce non pas pour dénoncer simplement ces dernières, mais pour ouvrir de nouveaux usages à partir d’elles.

Gouverner à partir du réel

Commençons par établir de manière préliminaire, et quasi axiomatique, une série de déplacements produits par l’idée, floue, de transparence, par rapport au principe plus défini de la publicité.

1° L’appel à la transparence nourrit le projet d’établir une visibilité continue du réel, là où le principe de publicité est essentiellement limité, porte sur des actes spécifiques et trouve toujours son vis-à-vis dans l’établissement d’espaces protégés par la privacy.

2° L’appel à la transparence se développe dans un rapport de rivalité par rapport à la loi, à la norme juridique.

3° Là où la publicité cherche à limiter les rapports de domination inhérents à l’espace politique, la transparence en appelle directement à la bonne volonté et au bon sens des acteurs, comme en témoignent les bons mots du CEO de Google, Eric Schmidt, dans une interview sur CNBC au sujet des données privées dans le cadre de Patriot Act : « S’il y a quelque chose dont vous voulez que personne ne le connaisse, peut-être devriez-vous simplement vous abstenir de la faire. »

4° L’appel à la transparence ne cherche pas à élargir l’espace polémique de la décision politique, comme la publicité le permet, mais à diluer celui-ci, voire à diluer l’idée même de décision.

5° Avec l’appel à la transparence, l’enjeu ne semble plus être de gouverner le réel, mais de gouverner à partir du réel. Pour comprendre le déplacement ainsi résumé quant à la nature du rapport du gouvernement au réel, en ce que ce rapport serait ce par quoi une pratique de gouvernement assure sa puissance, on peut distinguer trois gestes de base propres aux dispositifs normatifs contemporains témoignant de leur souci de se présenter comme des expressions du réel : a) définir le réel (l’exemple le plus frappant est ISO) ; b) inciter ceux sur qui ils portent (individus, entreprises, services, centres de recherches…) à rendre compte de leurs propres activités, et c’est autant que possible par cette action de reporting de soi-même que l’action normative s’accomplit ; c) opérer une mise en nombre du réel en déployant des techniques statistiques qui permettent de faire émerger des normes, lesquelles apparaissent comme l’expression même de la réalité. C’est au travers de tels gestes que sont rendus possibles des actes d’évaluation, de hiérarchisation, de certification, de classement, de comparaison, etc., qui permettent à ces nouvelles formes de normativité d’être pensées comme immanentes au réel et qui permettent, plus globalement, aux actes de gouvernement d’apparaître comme fondamentalement habités par la retenue, par une sorte de rationalité limitée2.

6° Les normes contemporaines se présentent dès lors comme discrètes, par opposition à la volonté de rendre publique la norme. La trivialité apparente d’un gouvernement qui se contenterait de répéter le réel, qui lui adhérerait parfaitement en se limitant à le rendre transparent, est accompagnée par l’idéal de son invisibilité : une norme efficace est une norme qui n’apparaît même pas (et qui à ce titre échappe au débat). Ceci est exemplairement relayé par la littérature de la Commission européenne : « La plupart des biens et des services dont nous disposons aujourd’hui sont soumis à des normes, ce dont on ne se rend généralement pas compte. Telles des forces invisibles, les normes veillent au bon ordre des choses.3 » L’action normative devient invisible, c’est-à-dire ne se pense plus comme l’expression d’un projet, ni dès lors comme l’objet d’un conflit ; seul subsiste, à son fondement, ce qu’on voudrait comprendre comme son appui technique sur la réalité.

La gouvernementalité algorithmique

Arrêtons-nous sur cette nouvelle forme de normativité qui repose essentiellement sur la mise en nombre du réel et qui a été qualifiée, avec Antoinette Rouvroy, de « gouvernementalité algorithmique ». Celle-ci repose sur la récolte massive de données qui sont analysées et mises en corrélation de manière automatisée, exemplairement par data mining, pour établir des profils supposés recouvrir la totalité du réel, dans le plus grand respect de son hétérogénéité, et dès lors permettre d’anticiper les comportements individuels et collectifs. Ce qui caractérise ces pratiques statistiques est leur extrême personnalisation. Pourtant, à chacune de ces trois étapes – récolte, traitement des données et effets sur les comportements – ce qui s’impose est un évitement des interactions avec les sujets, ou encore une raréfaction des processus de subjectivation.

D’abord, le phénomène de récolte et de conservation massives de données, qui constitue ce qu’on appelle communément les big data, se développe par défaut : ces données ne sont ni véritablement « données », ni pour autant « volées », deux alternatives qui présupposent la possibilité d’un consentement (dans le second cas, par l’affirmation que celui-ci n’a pas été respecté). Toute forme de référence à un consentement véritablement éclairé apparaît dans ce cadre comme inadéquate dès lors que l’usage de ces données, la finalité qui en justifierait la transmission, ne sont eux-mêmes pas connus, sont fondamentalement indisponibles. Ni données, ni volées, ces données sont bien plutôt abandonnées, laissées. Or cette fragilisation des possibilités d’un véritable consentement est le gage le plus fort de l’apparente objectivité des données en question, lesquelles sont si peu volontairement transmises, si fragmentées, si dépourvues de sens, qu’elles ne peuvent mentir.

Le data mining consiste ensuite en la production d’un certain type de savoir, constitué de simples corrélations4 établies de manière automatisée à partir de données massives. Aussi fantasmé que cela paraisse, cette production de savoir semble et est vécue comme s’il était possible de pouvoir se passer toujours plus de l’expression de toute forme d’hypothèse préalable (a fortiori dans des pratiques de machine learning). De la sorte, nous nous trouverions à nouveau face à l’idée d’un savoir dont l’objectivité semble d’autant plus nette qu’elle est protégée de toute intervention subjective (dans ce cas de toute formulation d’hypothèses).

Les normes (ces corrélations à l’aide desquelles des profils sont établis) semblent dès lors émerger du réel lui-même, dans le plus grand respect de sa variété, et jusqu’à en opérer un dédoublement. L’action normative en question consiste donc, toujours plus subtilement, à agir sur les comportements possibles des sujets individuels ou collectifs par un modelage discret de l’environnement dans lequel ils se meuvent, (comme s’il s’agissait d’adhérer à ce qu’il est et sera), et toujours moins en une contrainte qui leur serait imposée directement et de manière publique (à l’image de la norme juridico-discursive qui, on l’oublie souvent, rend fondamentalement possible sa désobéissance, au point de prévoir celle-ci au travers de sa sanction).

C’est sur la base de l’apparente objectivité de ces normes, présentées comme dédoublant le réel, que l’action normative qui en découle apparaît comme inoffensive. Le rapport entre l’objectivité inoffensive de la norme et l’évitement des interactions avec les sujets repose ainsi sur une double garantie : gouverner à partir du réel suppose que les données soient laissées sans violence – les corrélations qui en ressortent seront alors suffisantes pour gouverner, nouant simplement et sans présupposition les fragments de notre quotidien, apparemment sans rien leur ajouter, pour modeler de la sorte nos environnements. Toute résistance apparaît alors simplement hors de propos. Les normes peuvent à leur tour exercer un gouvernement discret, voire invisible, parce qu’elles sont basées sur des profils qui ne nous concernent qu’en ce qu’ils respectent ce que nous sommes, dans toute la diversité du réel. Les données sont obtenues sans filtrage, et apparaissent dès lors intactes. Cette disponibilité des données permet ainsi l’indisponibilité de la norme, qui gouverne sans contraindre et sans se montrer – le renversement de visibilité se trouvant permis, dans la logique à laquelle on assiste, par l’évitement de toute épreuve subjective à chaque étape du processus. C’est autour de l’impératif de transparence que se noue cet évitement : il serait absurde de s’opposer à une norme qui repose sur un double du réel, d’autant plus exact qu’il est intact.

Détour par l’itérabilité : force de décontextualisation

À travers ces trois étapes, la production au sein de la gouvernementalité algorithmique d’un double « détaché » du réel par l’évitement de toute épreuve subjective nous paraît pouvoir être pensé à partir de ce que Jacques Derrida appelle l’itérabilité, c’est-à-dire la force qui permet à tout signe d’être répété et donc de fonctionner, autrement dit d’être intelligible, signifiant5. Par là, Derrida permet d’envisager le langage au plus loin de l’intention ou du vouloir-dire qui aurait présidé à l’énonciation pour prendre en compte son itérabilité comme faculté à être séparé de son contexte. Au-delà de la complexité de l’appareil et du vocabulaire derridien, on peut assez facilement percevoir cette affirmation de la manière suivante : si un (ensemble de) signe(s) fonctionne, si quelque chose comme une communication s’établit, c’est parce qu’on reconnaît ces signes pour les avoir vus, entendus, lus, ou appris ailleurs. Que ces signes soient des lettres, des mots ou des expressions, notre usage et notre compréhension reposent sur leur répétition. Pour le dire dans un vocabulaire plus proche de celui de Derrida, ces signes sont itérables parce qu’ils ont leur origine ailleurs, c’est-à-dire ailleurs que dans l’esprit ou la bouche du locuteur dans notre situation langagière, au plus loin de son intention.

Or, force est de reconnaître que c’est bel et bien face à cette primauté radicale de l’itérabilité que nous place incontestablement et tragiquement toute expérience réfléchie dans le cadre de la gouvernementalité algorithmique : tout signe – toute donnée – doit y être pensé premièrement depuis sa force de rupture par rapport à un contexte intentionnel, depuis une lisibilité autonome par rapport au « moment de sa production », c’est-à-dire comme « abandonné à sa dérive essentielle », mais aussi, dès lors, comme pouvant fonctionner tout en étant « prélev[é] » hors de « l’enchaînement dans lequel il est pris » pour être ensuite « greff[é] dans d’autres chaînes6 ». L’itérabilité signifie, dans le mouvement de la signification, que le vouloir-dire existe uniquement comme étant toujours différé par rapport à lui-même, mis à distance, c’est-à-dire qu’il ne tient pas lieu d’instance fixe à laquelle se référer. La gouvernementalité algorithmique représenterait l’accomplissement de ce processus, en prenant en compte les données de manière radicalement détachée de leur production première, où un vouloir ou un consentement n’aurait pas lieu d’être, ni pour être respecté, ni en ce qu’il serait bafoué : les données existent toujours déjà comme séparées, et c’est ce qui leur permettrait de se corréler pour créer des profils détachés.

Fonctionner en l’absence des conditions qui ont présidé à l’énonciation (contexte et intention) est, traditionnellement, la caractéristique du signe écrit : l’itérabilité correspondait à la lisibilité. Le geste de Derrida consiste dans l’extension de cette caractéristique à tout le langage et à toute la communication qui, même orale, fonctionnerait selon ces caractéristiques que l’on attache à l’écriture7. Or, tant l’enregistrement des traces que la corrélation des données qui en ressortent pour former des profils semblent tenir de l’écriture décrite comme telle : c’est parce que tout signe, toute donnée prise comme signe en étant isolée de son contexte, fonctionnerait comme une marque écrite toujours déjà confrontée à l’éloignement par rapport au moment de production, qu’on pourrait les corréler – la « mise en nombre » du réel consistant, de manière évidente en une « mise en signes » qui, nous y reviendrons, se suffit à elle-même.

Il n’a pas fallu qu’advienne la gouvernementalité algorithmique pour témoigner de l’intrication entre écriture et processus de gouvernement : en commentant l’Essai sur l’origine des langues de Rousseau dans De la Grammatologie, Derrida retient des propos de Rousseau que « L’écriture est le processus même de la dispersion du peuple réuni en corps et le commencement de son asservissement8 ». Pour forcer le trait, représentation graphique du langage par l’écriture et représentation politique s’y rejoignent comme incarnation du « mal politique et mal linguistique » qui romprait l’unité du peuple avec lui-même. Derrière la plainte de Rousseau à propos de la perte d’une unité première et préservée, plane aussi l’idée de la possibilité d’une parole pleine, qui fonctionne uniquement dans la présence d’un échange ; c’est le rejet de l’écriture comme n’étant que secondaire liée à cette conception que Derrida dénonce.

La gouvernementalité algorithmique paraît opérer un renversement à cet égard. Certes, les opérations de sa pratique normative fonctionnent exemplairement par greffe, c’est-à-dire sur le mode d’une écriture, par décontextualisation. Mais dans le même temps, elle repose sur une expression du réel et vise donc la représentation absolue, c’est-à-dire une représentation qui tend à la présence. On peut par là reconstituer le geste d’opposition par lequel la norme se distingue de la loi par son invisibilité, son caractère insensible et non contraignant : la gouvernementalité algorithmique, loin de briser l’unité originelle comme le fait l’écriture liée à la loi, serait dès lors un langage capable de créer un reflet du réel parfait, comme si la greffe était une copie pure et parfaite.

Brouiller la transparence, ajouter du reste

Derrida nous enseigne pourtant que la primauté de l’écriture, c’est-à-dire le fonctionnement par greffe, signifie qu’un langage ne peut adhérer parfaitement au réel. Il semble ici qu’on touche au geste de la gouvernementalité algorithmique, dans la mesure où les sujets qui sont évités par ses opérations sont aussi langagiers, parlant ou écrivant – ils ne sont autres, en ce sens, que les sujets de la greffe. Qu’est-ce qui distinguerait le langage des corrélations de données par rapport à ce qu’on pourrait désigner comme une véritable écriture ?

Pour approcher cette question, mobilisons encore la notion d’itérabilité. D’abord, notons que la répétition décrite par Derrida, en mettant à distance tout contexte intentionnel, produit dans le même temps une altération de ce qui paraît être répété dans une chaîne nouvelle. L’itération, si elle est une expression, ne l’est que dans la mesure où elle produit une différenciation sur l’expérience qu’elle exprime. Cette dérive est constitutive du signe et rend dès lors impossible l’accès à une expérience première, non contaminée, serait-ce par un vouloir ou une subjectivité ; ce qui se produit dans la greffe n’est pas de l’ordre d’une pure copie. Décrire cette opération en jeu dans l’itération est proche de l’idée que les normes n’émergent pas spontanément du réel : comme ne cessait de le répéter Alain Desrosières, « les données ne sont pas données », elles ont un coût, elles sont fabriquées, conventionnelles9, bref il y a toujours un amont technique à leur mise en disponibilité, de même qu’à leur tri prétendument spontané et à la production des corrélations qui en sont tirées.

Pour comprendre l’étendue de cette question à ce stade, on doit revenir à l’appui de Derrida sur la théorie du performatif : pour J. L. Austin10, les énoncés, loin de devoir être évalués seulement en termes de vrai et de faux, depuis leur valeur constative, en ce qu’ils disent le monde, peuvent aussi être évalués en termes de réussi ou de raté, en ce qu’ils font quelque chose, en ce qu’ils participent à la fabrication du monde. La critique, parfois injuste, de la théorie du performatif d’Austin par Derrida consista à dénoncer la structure contextuelle qui assurait cette force performative, avec la prétendue présence intentionnelle qu’une telle structure supposerait, lui substituant la structure d’itérabilité, dont nous avons exposé la proximité et l’écart avec le fonctionnement de la gouvernementalité algorithmique. Ce qui nous intéresse ici est que Derrida nous donne ainsi la possibilité de penser que l’échec, le raté, le déplacement, loin d’être un accident du performatif – comme ce serait selon lui le cas dans la théorie austinienne où l’échec serait dû à un accident ou encore au non-respect des conventions – lui est au contraire consubstantiel11 : l’itérabilité ouvre sur l’altération, élément essentiel dès qu’on envisage tout énoncé au plus loin des conditions qui président à son énonciation.

Ceci nous aide à percevoir l’écart qui sépare l’écriture des corrélations, qui vise à adhérer et anticiper la totalité du réel, avec le fonctionnement d’un langage qui peut toujours échouer – échec dont nous faisons l’expérience, semble-t-il, dès lors que nous entrons dans un processus d’échange langagier, dont nous percevons bien à quel point la compréhension ou la communication qu’il vise ne peut jamais être totalement, absolument achevée. C’est précisément ce type d’épreuve qui est évité par la gouvernementalité algorithmique. On comprend ici que notre problème n’est pas d’être dépossédés de ce que nous considérerions comme nous étant propre, ou d’être contraints à céder des informations qui attenteraient à notre vie privée ou à notre liberté. Le problème est dans l’idée que ces informations seraient des parfaites copies, sans altérations, de notre réalité. De même, il se situe non pas dans les corrélations mais dans leur suffisance, dans le fait que ces combinaisons adviennent sans reste, comme des répétitions sans altérations. Cette prétention à la pure reproduction est précisément ce qui caractérise la transparence.

Judith Butler, en s’appuyant sur la théorie derridienne, a produit une lecture du performatif qui permet de cerner le danger inhérent à toute réception d’une proposition qui ouvrirait sur la perspective d’une pure répétition, mécanique12. En visant plutôt les utilisations juridiques et militantes de la théorie austinienne, elle s’attacha à dénoncer les dangers découlant de la considération selon laquelle cette performativité trouvait sa source pour l’essentiel dans la structure conventionnelle du performatif (laquelle serait propre à la seule dimension illocutoire), le respect de certaines conventions, selon les contextes, étant ce qui permet de véritablement incorporer l’acte dans le discours. Cette approche, en supposant la souveraineté du sujet intentionnant sur ses énoncés, autoriserait de la sorte une éventuelle souveraineté politique sur les discours, laquelle ne pouvait que confirmer l’effectivité des performances de ces énoncés (Butler questionne ici plus particulièrement les fighting words)13. D’autre part et a contrario, Butler met l’accent sur les possibilités d’empowerment propres à cette structure d’itérabilité. Dès lors que l’itération n’est pas seulement répétition (et interpellation souveraine) mais aussi différence, cette approche nous enjoint à réfléchir depuis les reprises qui peuvent être faites de toute proposition, avec les déplacements et ainsi les processus de subjectivation nouvelle qui en découlent.

La gouvernementalité algorithmique peut alors, nous semble-t-il, être saisie par son rapport ambivalent au langage : en reposant sur une capacité de décontextualisation et de greffe, ses opérations de corrélation se présentent comme une écriture – écriture qui, par le caractère massif des données qu’elle utilise, parviendrait à répondre à l’impératif de transparence, c’est-à-dire à donner accès à la totalité du réel. Mais ce langage serait alors privé d’une caractéristique primordiale, celle d’induire reprise, correction, ajustement – un véritable langage ne pouvant représenter de totalité close sur elle-même, sans reste. Le problème auquel nous sommes confrontés ne se situe donc pas dans les corrélations, mais dans leur suffisance, avec la pure répétition, sans reste, que cela rend possible : rien ne doit être ajouté à de la corrélation pour que ça gouverne ou agisse. C’est là que se joue l’évitement de l’épreuve subjective que nous avons observé aux trois temps de la gouvernementalité algorithmique. Si cette exclusion consommée du sujet ouvre bel et bien sur une écriture entendue comme un système infini de greffes, ces dernières se présentent non pas comme des dérives, avec la différence propre à toute itération, mais comme le déploiement des répétitions purement mécaniques. Tel est bien le mythe de la transparence. Face à cela et sans aucune nostalgie pour un sujet maître de ses événements – possibilité définitivement fermée –, ce qui nous semble urgent est d’assumer, et même de favoriser, la prise en considération des différences comme étant propres à toute écriture14, et donc de refuser ainsi les nouveaux diktats d’une écriture qui se présenterait comme purement transparente.

1 Cette nouvelle gouvernementalité a été cernée dans Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’émancipation par la relation ? », Réseaux, 2013/1, no 177, La Découverte, p. 163-196.

2 Dont on peut dire qu’elle invite à gouverner sans gouverner, idée dont Thomas Berns a retracé la genèse dans Gouverner sans gouverner. Une archéologie politique de la statistique, PUF, 2009.

3 Communication de la Commission au Conseil européen, « Intégration des aspects environnementaux dans la normalisation européenne ».

4 Ce qui en soi n’est pas tragique – tous les êtres, et pas simplement les humains, profitent amplement des corrélations qu’ils n’ont jamais cessé de tisser – même s’il convient toujours de constater combien certaines corrélations, telle celle qui lie un certain taux de dette publique et la baisse de la croissance, peuvent être dangereuses par les leçons qu’on en tire. Par contre, et nous revenons sur ce point plus loin, il est urgent de ne plus se satisfaire de cette suffisance des corrélations.

5 Voir J. Derrida, « Signature événement contexte » [SEC], Marges de la philosophie, Paris, Éditions de Minuit, 1972.

6 Ibid.

7 Voir surtout J. Derrida, « L’écriture avant la lettre », De la grammatologie, Paris, Éditions de Minuit, 1967.

8 J. Derrida, « Nature, culture, écriture », De la grammatologie, op. cit.

9 Sans toutefois que ces conventions ne soient jamais mises en jeu ou en débat.

10 J. L. Austin, How to do Things with Words, ed. J.O. Urmson, Clarendon, Oxford, 1962.

11 La critique de Derrida s’étend également au fait qu’Austin est tenu dès lors de rétablir une distinction de principe entre les langages sérieux (exemplairement le droit !) et les langages non sérieux (le théâtre, les énoncés sous contrainte, etc.). À ces critiques, ajoutons celle selon laquelle une telle approche conventionnaliste de la performativité a pour conséquence d’expliquer le droit (les énoncés juridiques étant donc supposés être les performatifs exemplaires) par le droit (ce sont des conventions qui expliquent leur performativité).

12 J. Butler, Excitable Speech. A Politics of the Performative, New York, Routledge, 1997 ; voir aussi les conséquences que Thomas Berns tire de ce débat dans « Insulte et droit post-souverain », Multitudes, 59, 2015, p. 120-125.

13 La conventionnalisation du performatif – qui incorpore véritablement le dire dans le faire (l’illocutoire) plutôt que d’envisager l’action comme ce qui suit le dire avec la latitude que cela laisse (le perlocutoire) – est certes l’expression d’une compréhension théorique spécifique du performatif, mais aussi la rencontre entre plusieurs dynamiques souveraines : celle du sujet qui interpelle, celle du sujet qui subit l’interpellation (et dont la souveraineté est donc purement déniée), celle de l’instance (traditionnellement l’État) qui dès lors contrôle le langage, confirmant de la sorte l’interpellation et cédant à la peur de l’avenir inconnu des mots. C’est bel et bien un certain visage du droit, pensé depuis la souveraineté, qui se définit de la sorte.

14 À titre d’exemple, les nouvelles pratiques statistiques propres à la gouvernementalité algorithmique ouvrent incontestablement vers la possibilité de produire des normes qui seraient apparemment dépourvues de toute référence à des catégories discriminantes par leur prétendu appui parfaitement objectif sur la multiplicité des données singulières. Mais ces mêmes pratiques statistiques permettent aussi de rendre visibles toutes les discriminations à l’œuvre dans cet espace normatif qui ne réclame plus aucune catégorie discriminante pour gouverner.