98. Multitudes 98. Printemps 2025
Mineure 98. Mésaventures de l’algorithme bureaucratique

Méditations chuchotées sur l’algorithmisation des bureaucraties

Partagez —> /

Les promesses grandiloquentes des promoteurs des algorithmes et de l’Intelligence Artificielle (IA) nous sont aujourd’hui imposées partout : sur les affichages des rues comme sur notre lieu de travail, dans les médias comme dans notre vie intime. « Gain d’efficacité », « croissance de la performance », « opportunité dans l’analyse de données massives », « bénéfices de l’optimisation », telles sont les séduisantes promesses. Mais au-delà des effets d’annonces, ces technologies doivent bien souvent encore faire leurs preuves1. Pour s’implémenter dans le tissu complexe des situations et trouver leur place dans les habitudes d’experts·es et usagers·ères, elles font face à de nombreux obstacles.

Cette Mineure entend questionner les mésaventures des projets d’algorithmes développés par les administrations françaises. Dans un contexte où les organisations publiques souffrent déjà d’une forte crise de légitimité – causée par une politique délétère, un manque d’efficacité et de nombreux conflits d’intérêts – l’automatisation croissante de leurs activités risque de l’aggraver. En effet, la solidité de l’expertise, socle de cette légitimité, est de plus en plus déléguée à des algorithmes que les administrations peinent à maîtriser2. Sans cette maîtrise, la légitimité ne tient plus. Aujourd’hui, il est probable que la forte anxiété que nous avons autour des algorithmes, de l’automatisation et de toutes les peurs qui l’accompagnent alimente les suspicions que nous avons à l’encontre des organisations publiques3.

Quelles sont les causes de l’échec d’un projet d’IA mené par une administration ? Quelles sont les formes de résistance mises en œuvre à l’intérieur des institutions pour limiter ou contrer le « rouleau compresseur » de l’algorithmisation de la bureaucratie ? Est-ce que les critiques « depuis l’intérieur » rejoignent les critiques distantes exprimées par des collectifs citoyens et militants ? Comment interpréter la désillusion qui monte à l’encontre des effets soi-disant transformateurs des algorithmes ? Telles sont les questions explorées dans cette Mineure par l’entremise de cinq enquêtes de sociologues et militants·es. Il est tour à tour question : des outils morts-nés de justice prédictive (Camille Girard-Chanudet); de l’impossible appropriation par les professeur·es des algorithmes de sélection des candidat·es aux formations universitaires (Héloïse Eloi-Hammer); du ciblage abusif des allocataires de la Caisses d’Allocations Familiales (Soizic Pénicaud et Maud Barret Bertelloni) ; et enfin, de l’algorithmisation du contrôle des navires français pour l’obtention de leurs permis (Jérémie Poiroux).

Chez Camille Girard-Chanudet comme chez Jérémie Poiroux, l’algorithmisation entre en friction avec le travail contextuel, mesuré et incarné par des professionnels·lles – c’est-à-dire, le savoir particulier des juges et des auditeur·ices de bateaux. Ici la frontière vers plus d’automatisation est épistémologique. Les deux articles montrent que la prétention de l’IA à traverser tous les domaines et pratiques est erronée4. Dans le cas de Parcoursup – la plateforme qui organise la liaison entre offre et demande de formations du supérieur – il devient évident que, pour résister à la sélection algorithmique, les professeur·es doivent s’approprier ses mécanismes et fournir un important travail collectif autour du paramétrage de l’outil. Le simple recours à des principes et valeurs ne suffit pas pour s’opposer au système. Ici, la limite vers l’adoption de l’algorithme est organisationnelle. Enfin, l’article de la militante Soizic Pénicaud montre que les critères de l’algorithme du score de risque de la CAF mènent au surciblage de certains types de population, notamment les plus précaires : familles monoparentales, bénéficiaires du RSA, personnes aux revenus variables ou au chômage. La sociologue Maud Barret Bertelloni appuie le propos de Soizic Pénicaud pour montrer que l’algorithmisation est l’incarnation et l’intensification d’une politique institutionnelle de la CAF : une suspicion envers les précaires dont les risques de fraudes ne doivent pas être seulement surveillés, mais aussi prédits grâce aux nouvelles performances du data mining.

Ces récits des mésaventures et échecs des algorithmes publics doivent être utilisés comme des ressources pour nous désenvoûter de la prétendue « magie » algorithmique et de ses mystérieuses « boîtes noires5 ». Pour mettre en jambe les lecteurs·ices, il est présenté ci-dessous un ensemble de méditations sur l’algorithmisation des bureaucraties : un recueil de réflexions sur la transformation technologique des États qui s’opère à travers un régime de procédures saturé de données et d’algorithmes. Ces méditations, inspirées des textes des auteurs·ices de la Mineure, sont l’occasion de réfléchir à la figure de l’algorithme en tant que technologie, mais aussi en tant qu’agent rhétorique invasif se propageant dans les organisations publiques6. Ces pensées prennent des formes bigarrées : principes pratiques pour affiner notre attention, mantras obscurs, spéculations poétiques, thèses fugaces et autres paradoxes opportuns. Ces méditations veulent interrompre les flux massifs de données dans lesquels nous vivons en nous forçant à arrêter notre réflexion sur des propositions qui prennent le risque d’être à compléter par de nouvelles enquêtes et de prochaines mobilisations collectives. Diffractée, la figure de l’algorithme bureaucratique n’en ressort pas indemne. Telle une partition annotée et comme pour mieux conspirer contre l’avènement des IA toutes puissantes, les lecteurs·ices sont invitées à chuchoter discrètement ces méditations à leurs voisin·es, client·es, partenaires ou managers les plus proches. Voici ces chuchotements.

Sur l’attention analytique quotidienne

– Il n’y a pas d’algorithme mais une infrastructure tentaculaire de procédures : un jeu de données, un modèle-format de ces données et un algorithme fonctionnent toujours ensemble.

– Les algorithmes bureaucratiques se rencontrent dans les frictions de leurs couches logicielles et logistiques7.

– Un algorithme bureaucratique est la traduction, l’adaptation ou la codification complexe de règles juridiques8.

– L’algorithme bureaucratique transforme de manière problématique des attributs qualitatifs en agrégats quantitatifs9.

– Attention ! Un avertissement rompt la récursivité de la boucle : « Les entités humaines apportent de l’intensité éparse, de l’aléa chaud et des contingences relationnelles ».

Sur le discours

– Séduit par la sublime métaphore de l’algorithme, le Prince est enfermé dans ses propres machinations10.

– Algorithme : signifiant vide prêt à être investi par toutes les idéologies ?

– L’algorithme bureaucratique est une figure de rhétorique coincée dans une fable et agissant comme un fétiche.

– Derrière les algorithmes, c’est l’imaginaire des systèmes, procédures et ordres qui s’exprime.

– Si vous en avez assez des débats interminables sur les boîtes noires algorithmiques, n’hésitez pas à cliquer sur le bouton « reset » au bas de ces méditations.

Sur la problématisation

– L’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalité de son pouvoir.

– Les algorithmes bureaucratiques agissent comme des délégués qui compensent les déficiences morales des fonctionnaires11.

– L’algorithme bureaucratique (ré)ouvre les problèmes de politique publique plus qu’il ne les résout.

– Il importe de savoir quelles expertises et personnes sont légitimées pour formuler les problèmes et solutions aux préjudices algorithmiques12.

Sur l’organisation

– La bureaucratie est la première des intelligences artificielles.

– À l’intérieur et au-delà d’un algorithme bureaucratique, nous trouvons des bureaucrates masqué·es, des groupes sociaux démantelés et des organisations qui se chevauchent.

– Entrées et sorties de données, règne de l’information, délire de l’optimisation : il n’y a pas d’algorithme mais des manières de voir les choses algorithmiquement.

– Depuis l’intérieur des organisations, l’algorithme bureaucratique est virtuellement trop grand ; de l’extérieur, il apparaît comme simpliste – attention ! suivant les situations le contraire est aussi vrai.

Sur la temporalité

– L’algorithme bureaucratique est ancien mais vigoureux – nous devons envisager l’État comme une archive vivante.

– Tous les algorithmes ne sont pas récursifs mais tous sont circonscrits.


– Surpris par toutes ces contestations, il est difficile de savoir quand nous devons prendre soin des boîtes noires.

– Ce qui doit être décrit n’est jamais un algorithme, mais un excès de relations se succédant les unes aux autres.

Sur les subjectivités

– Nos histoires personnelles de rencontres bureaucratiques sont pleines d’algorithmes gris et de grotesques plateformes.

– L’algorithme bureaucratique brouille les identités : suis-je un singulier citoyen, un usager standardisé ou un ensemble d’attributs provenant d’autres personnes ?

– Tard dans la nuit, à l’ombre des données manquantes, nous sommes des fugitifs rêvant de l’incomputable.

– Si, à ce stade de la lecture, vous ne voyez pas l’algorithme, tendez l’oreille pour entendre les interminables boucles du standard téléphonique.

1Même l’intelligentsia libérale et financière s’accorde sur l’idée que l’IA ne remplit pas ses promesses. « Gen AI: too much spend, too little benefit? », Goldman Sachs Global Macro Research, Issue 129, 25/06/2024. « Why fear is sweeping markets everywhere », The Economist, 02/08/2024.

2Ryan Calo & Danielle K. Citron, « The Automated Administrative State: A Crisis of Legitimacy », 70, Emory L. J. 797 (2021). htps://scholarlycommons.law.emory.edu/elj/vol70/iss4/1

3Pink, S., Lanzeni, D., & Horst, H. (2018). « Data anxieties: Finding trust in everyday digital mess ». Big Data & Society, 5(1). https://doi.org/10.1177/2053951718756685

4Ribes, D., Hoffman, A. S., Slota, S. C., & Bowker, G. C. (2019). « The logic of domains ». Social Studies of Science, 49(3), 281-309. https://doi.org/10.1177/0306312719849709

5Philippe Pignarre, Isabelle Stengers, ​​La sorcellerie capitaliste. Pratiques de désenvoûtement. La Découverte, 2005.

6Cellard, L. (2022). « Algorithms as figures: Towards a post-digital ethnography of algorithmic contexts ». New Media & Society, 24(4), 982-1000. https://doi.org/10.1177/14614448221079032

7Voir l’article de Jérémie Poiroux au sujet des algorithmes sous forme d’Excel et de grilles de critères.

8Voir l’article de Camille Girard-Chanudet à propos de la limite de la codification de la loi.

9Voir l’article de Héloïse Eloi-Hammer sur la vague quantification de la motivation des étudiants.

10Voir l’article de Jérémie Poiroux sur le rôle des algorithmes dans le désengagement de l’État.

11Voir les articles de Jérémie Poiroux et Camille Girard-Chanudet sur les frictions entre expertises des fonctionnaires et objectivités algorithmiques.

12Voir l’article de Camille Girard-Chanudet sur la manière dont l’algorithmisation permet de légitimer des startups et l’expertise des data scientists.