7 octobre 2016. En posant le principe d’ouverture de l’accès aux quatre millions de décisions de justice rendues chaque année par les tribunaux français, le vote de la loi pour une République numérique marque le lancement des premières expérimentations d’outils d’Intelligence Artificielle (IA) juridique en France. Dans le sillage de cette annonce voient le jour plusieurs projets de traitement par apprentissage automatique des décisions numérisées, considérées comme un nouvel « or noir ». Des start-ups nouvellement créées, suivies de près par les éditeurs juridiques traditionnels et, à partir de 2018, par la portion la plus favorisée des institutions judiciaires (Chancellerie, cours suprêmes), s’intéressent de près aux outils qualifiés de « justice prédictive ». L’ensemble de ces acteurs se rencontre régulièrement au sein d’arènes technophiles et réformatrices, qui forment un terreau idéologique, opérationnel et financier propice à la mise en place des premières expérimentations algorithmiques au sein du monde de la justice.
Portés par cette dynamique favorable, plusieurs outils d’IA sont expérimentés au sein des juridictions françaises. À l’automne 2017, une start-up voit son outil testé au sein de deux cours d’appel. En 2018, le ministère de la Justice s’engage, avec l’appui du programme Entrepreneur d’Intérêt Général, dans la conception en interne d’un algorithme d’évaluation automatique de l’indemnisation des préjudices corporels, Datajust. La même année, la Cour de Cassation et le Conseil d’État expérimentent des algorithmes de pseudonymisation1 automatique des décisions de justice. La Cour suprême judiciaire va plus loin encore, en développant en interne des outils d’IA pour orienter automatiquement les pourvois entre ses différentes chambres, et identifier d’éventuelles divergences de jurisprudence. De façon générale, ces outils algorithmiques sont présentés comme des moyens inédits de rationaliser l’activité judiciaire et d’en augmenter la productivité, dans un contexte de crise fortement médiatisé.
À l’enthousiasme des porteur·ses de projet, représentant·es d’une élite judiciaire en majorité jeune et parisienne, répondent pourtant les réticences d’une grande partie des magistrat·es de terrain : « Ça ressemblera à quoi, la justice, quand ces technos, elles seront complètement déployées ? Moi, les algos, ça me fait peur » ; « De toutes façons, l’IA ne peut pas gérer les situations avec la même sensibilité, le même humanisme que nous2 ». Prises de position sur les réseaux sociaux, organisation de colloques, rapports et controverses médiatiques se font le reflet des fractures qui parcourent le monde de la justice autour de la question algorithmique. Dans ce contexte de tensions, auquel s’ajoutent des difficultés infrastructurelles majeures liées notamment à la mise à disposition numérique des décisions, la plupart des expérimentations citées ci-dessus sont mises en sommeil quelques mois seulement après leur lancement.
Que se joue-t-il dans cette désillusion algorithmique ? Comment expliquer l’échec de déploiement des projets d’IA juridique en juridiction ? Quels équilibres les outils d’IA viennent-ils bousculer au sein du monde de la justice ? Au-delà des craintes de remplacement, quels risques charrient réellement ces outils ?
Expertise juridique et expertise algorithmique : une rencontre sous tension
Une première piste de réponse à ces interrogations est à chercher dans le fonctionnement même des outils d’apprentissage automatique, dont le mode opératoire entre en tension avec les modalités d’exercice de l’expertise juridique défendue par les professionnel·les du droit.
Les algorithmes d’IA produisent des résultats à partir de l’analyse standardisée d’ensembles massifs de données fournies en entrée, qui servent d’exemple pour le traitement de cas inédits. Datajust, outil d’IA expérimenté par le ministère de la Justice entre 2018 et 2020 pour automatiser l’estimation de l’indemnisation d’un préjudice corporel, inférait, par exemple, le montant d’indemnisation d’un nouveau cas à partir de l’analyse de milliers de décisions passées, fournies à l’algorithme sous forme de bases de données durant sa phase d’entraînement. De ce fonctionnement découle une caractéristique essentielle de l’apprentissage automatique : l’IA ne s’intéresse pas aux situations particulières. Les algorithmes n’appréhendent de façon individuelle ni les personnes qui apparaissent dans les décisions, ni les circonstances de leurs préjudices. Ils traitent au contraire de façon standardisée, automatisée et à grande échelle des informations codifiées, qu’ils structurent et organisent à partir de calculs probabilistes complexes. Ils peuvent, à ce titre, être qualifiés de dispositifs de traitement industriel de l’information juridique. Un tel mode opératoire ne laisse pas de place à l’originalité, ni à la réflexion circonstanciée. L’apprentissage automatique fait simplement le pari, dans les mots de Dominique Cardon, que « notre futur sera une reproduction de notre passé3 ». Le fonctionnement a-contextuel et standardisé de l’IA est associé à des équipes conceptrices éloignées des mondes du droit ; c’est en particulier le cas au sein des start-ups productrices d’IA, dans les effectifs desquels les juristes occupent une place marginale au profit d’expertises techniques et commerciales.
Ce mode de traitement industriel de l’information tranche nettement avec l’approche du terrain valorisée par les professionnel·les du droit. Celles et ceux-ci revendiquent au contraire la spécificité d’une expertise professionnelle basée sur la capacité à articuler règle de droit et attention à la singularité de chaque situation rencontrée :
« Il y a un moment où l’information juridique nécessite d’être traitée par quelqu’un qui a la science du droit. C’est le problème du raisonnement, le syllogisme du juriste qui est mis à mal par le fonctionnement de l’IA […]. De nous dire que l’IA va avoir, elle toute seule, la science à la place du professionnel, là on se fout du monde. Il y a une analyse, une approche, une qualification juridique des situations auxquelles les gens sont confrontés que l’ordinateur, l’IA ne pourra pas faire de manière aussi pointue, et avec l’humanisme de celui qui va se plonger dans cette analyse-là. On est quand même encore des intelligences dotées d’un corps, dotés d’une sensibilité, de notre affectivité. Tous ces paramètres entrent en ligne de compte quand on reçoit quelqu’un à qui on fait dire le problème auquel il est confronté, à qui on fait donner les informations dont on a besoin pour traiter son cas, ce qui ne va quand même pas être fait par l’IA. Donc, ça amène à cette conclusion que le travail n’est pas du tout le même. »
[Avocat généraliste, ville moyenne]
Cet extrait d’entretien met en lumière la position défensive adoptée par une partie des professionnel·les du droit face à la logique probabiliste et généraliste associée à l’IA. Celle-ci, matérialisée dans la pratique du raisonnement syllogistique4, est décrite comme un savoir-faire ancré dans la relation personnelle unissant professionnel·les du droit et justiciables. Cette expertise est traversée par des enquêtes, des doutes et des choix qui semblent résister à l’automatisation. Pour certain·es professionnel·les, le scepticisme face à la possibilité de concilier outils algorithmiques et expertise juridique s’exprime dans un registre plus politique, à l’instar de cette magistrate, impliquée dans l’un des principaux syndicats de la profession :
« En fait, quand on fait ce métier, on est toujours pris dans des rapports de force. Sur la fonction de juge des enfants que j’exerçais avant, par exemple sur la question des mineurs non accompagnés, les décisions, elles sont toujours renvoyées en appel, parce qu’il y a pas de place, parce qu’ils sont en hôtel, parce que les départements limitrophes ne veulent pas les prendre en charge […]. Ce dialogue, ce rapport de force-là, c’est aussi ce qui fait l’intérêt d’une justice pas rendue par des machines, en fait. Être juge, c’est entrer dans ce rapport-là, c’est rendre des décisions dans un contexte donné, c’est travailler avec des partenaires, la société civile, voilà, c’est avoir ces échos-là, ces ressentis-là, et se positionner et motiver en fait, pourquoi est-ce qu’on se positionne dans un tel sens. »
[Magistrate, responsable syndicale]
Apparaît ici la fonction politique de la justice : loin de pouvoir être réduit au strict moment décisionnel, l’exercice du droit s’inscrit dans une temporalité longue, conduisant les professionnel·les à prendre en compte non seulement les éléments contextuels directs des affaires qu’ils et elles traitent, mais également un contexte institutionnel et social plus large.
De façon générale, l’« esprit juridique » des professionnel·les du droit, qui tranche avec le traitement industriel de l’information porté par les algorithmes d’IA, se manifeste sous forme d’un ensemble de valeurs, de pratiques et de conceptions partagées de l’activité juridique. Celles-ci s’acquièrent au cours d’un parcours de formation commun, jalonné d’étapes incontournables : formation juridique universitaire, réussite au concours de l’École nationale de la magistrature, stages, obtention de certificats d’aptitude professionnelle décernés par des pairs, prestation de serment, nomination… Ces étapes, sorte de droit d’entrée dans le monde de la justice, constituent autant d’épreuves préalables à l’intégration à un groupe professionnel fermé et réglementé, défendant sa spécificité par rapport aux profanes. Se joue ainsi dans l’opposition des magistrat·es de terrain à l’automatisation algorithmique du droit, une lutte pour la préservation de ce qui constitue le fondement contextuel, socialement ancré, de leur activité professionnelle. En s’opposant à l’arrivée d’un « robot-juriste », les professionnel·les de terrain se battent pour défendre une façon de dire le droit qui leur est propre, ancrée dans un réel pluriel et mouvant. Cette position apparait donc comme une revendication de la valeur du monde de la justice, comme la défense d’une juridiction professionnelle ancienne, face à des outils susceptibles de bousculer les régimes d’expertise et de légitimité qui la structurent.
L’IA, cheval de Troie de l’uberisation de la justice ?
La tension qui oppose, sur le fond, expertise algorithmique et expertise juridique, s’apparente aux débats qui ont jalonné la mise en place d’autres dispositifs, plus anciens, de cadrage de l’activité juridictionnelle. Lignes directrices, barèmes, référentiels, trames de jugements… De nombreux outils d’aide à la décision peuplent depuis longtemps les bureaux des magistrat·es, avec pour objectif l’homogénéisation et l’accélération des pratiques de jugement. Toutefois, pour beaucoup, ces instruments sont le fruit de réflexions et de négociations locales : ils circulent dans des réseaux fermés, entre juges d’une même Cour, et font régulièrement l’objet d’adaptations personnalisées :
« Pour moi, quand on est juge d’instance, on est sur une certaine automaticité de la décision, je vais pas mentir, hein. On a des trames, on rend beaucoup de décisions qui sont tramées, on apprend ça à l’école, hein. Par exemple, sur des crédits à la consommation, quand on en sort vingt dans la journée, on est obligés de tramer. Et actuellement, ça, chacun fait en local. C’est-à-dire que moi, j’ai des tableaux Excel, voilà, c’est pas plus compliqué que ça, qui me permettent de calculer des trucs quand il faut calculer des trucs. Mais, là-dessus, on n’est pas du tout au stade de l’IA, hein. »
[Magistrat, Tribunal d’Instance]
Au contraire de ces instruments plus classiques, les algorithmes d’IA sont souvent issus de l’extérieur des tribunaux – qu’il s’agisse d’entreprises privées ou des plus hauts échelons institutionnels de la justice. Ces outils d’apprentissage automatique ne se contentent pas d’aiguiller les professionnel·les dans leurs activités, mais ouvrent la voie vers une possible délégation totale à la machine de l’acte décisionnel. Ils sont en cela associés à la possibilité d’une reconfiguration des chaînes de responsabilité juridique. Ce faisant, l’IA ne supprime pas le travail humain – la conception de ces dispositifs réunit équipes nombreuses et pérennes dont les activités déterminent les résultats produits – mais le déplace vers d’autres espaces5. Le cadrage de la décision s’opère en amont, dans les bureaux des start-up conceptrices des outils de « justice prédictive », ou au sein des services d’innovation de la Chancellerie ou des Cours suprêmes. Une fois déployés, les outils algorithmiques risquent ainsi de décharger les professionnel·les de terrain d’une partie de leurs prérogatives, transférées, de facto, à ces groupes d’acteurs distants, peu visibles et difficilement accessibles. Ce déplacement de l’activité décisionnelle induit par l’IA est susceptible de bousculer les équilibres professionnels en présence, en particulier dans un contexte où les outils algorithmiques sont conçus loin du terrain juridictionnel – auprès d’une élite judiciaire réformatrice en poste au sein des institutions centrales du monde de la justice, ou dans les bureaux d’entreprises de la tech, étrangères aux mondes du droit.
De fait, le déplacement de régime d’expertise suggéré par le développement de l’IA juridique s’accompagne d’une possible bascule dans les frontières professionnelles entourant la pratique du droit. S’ils ne sont pas pris en main par des magistrat·es sceptiques, voire réticents, les outils d’apprentissage et les résultats qu’ils produisent sont, par contre, susceptibles d’être exploités par des acteurs « profanes », extérieurs aux mondes du droit, pour prendre en charge des tâches équivalentes. Ils octroient pour cela à ces tiers une légitimité algorithmique, concurrente à la légitimité juridique traditionnelle.
À titre d’exemple, les outils d’IA juridique conçus par les start-ups de la legal tech – et dans une moindre mesure par les acteurs publics, dans le cas de Datajust – ont ainsi pour utilisateurs et financeurs principaux un acteur inattendu : les compagnies d’assurance. Dans le cadre des services d’assistance juridique, les analyses algorithmiques permettent aux acteurs de l’assurance d’obtenir rapidement des informations statistiques sur l’issue probable d’un contentieux. Ces chiffres servent de support à de nouvelles modalités d’organisation du travail, et sont régulièrement utilisés comme appuis argumentatifs par les professionnel·les de l’assurance pour convaincre leurs client·es d’accepter un règlement à l’amiable des contentieux plutôt que de s’engager dans des procédures judiciaires longues et couteuses :
« Je vous parlais de mon taillage de haies de voisinage, est-ce qu’on a besoin d’aller emmerder un juge pour faire ça, pour savoir qu’untel doit tondre sa haie à deux mètres, je suis pas certain. L’idée c’est bien de se dire que tout ce petit contentieux, toutes ces affaires du quotidien, est-ce qu’on est obligé d’aller devant le juge pour ça ? Je suis pas certain. Ces outils [de justice prédictive], ils pourraient permettre de voir très rapidement ce qui mérite d’être débattu et d’aller au contentieux, et ce qui mérite d’être réglé par un chèque. »
[Responsable juridique, compagnie d’assurance]
Entre les mains d’acteurs extérieurs à la justice – compagnies d’assurance, start-up de la legal tech – les outils d’IA réactualisent ainsi de nombreuses questions associées aux processus de déjudiciarisation6, notamment en termes d’attribution des responsabilités ; en particulier, quelle part attribuer aux différents acteurs (assurance, concepteurs des outils, justiciable) dans la détermination du résultat des litiges ? Comment évaluer la qualité et la pertinence des résultats produits par des outils de « justice prédictive » dont les paramètres relèvent en l’état actuel du secret des affaires ? Quelle garantie du respect des législations en vigueur peut être proposée dans le cadre de telles procédures ?
Une telle configuration suscite l’inquiétude d’une grande part des mondes du droit. Dans une tribune parue dans Le Monde fin 2019, un juriste s’inquiète du possible avènement, avec l’essor des techniques d’IA, d’un « Netflix du droit dopé au machine learning 7 ». Le développement de l’IA juridique réactive en effet la crainte d’une ubérisation8 d’une partie de l’activité juridique, déjà initiée avec l’essor d’internet et des outils numériques. De nombreux services juridiques ont ainsi fait l’objet, ces dernières années, d’un processus de désintermédiation : l’accès à l’information juridique, auparavant réservé aux professionnel·les, est ainsi facilité pour les justiciables par l’usage de moteurs de recherche en accès libre (spécialisés, comme Juritravail, mais également moteurs de recherche généralistes comme Google) ; certaines entreprises proposent l’accès à un conseil juridique immédiat, par la mise en relation directe de particuliers avec des juristes ou avocat·es (Avostart, Avoloi) ; d’autres facilitent la rédaction d’actes juridiques en recourant à l’automatisation (Captain Contrat, Legal Place), ou encore prennent en charge la résolution de litiges par le recours à une médiation immédiate ou différée (Demanderjustice, Cessez-le-feu).
Les outils de « justice prédictive », parce qu’ils promettent d’indiquer le résultat probable d’un contentieux, ouvrent la possibilité de franchir une nouvelle étape en ce sens. Exploitée par des acteurs extérieurs aux mondes de la justice, l’IA pourrait, en théorie, remplacer à la fois juges et avocat·es. Elle permettrait un règlement automatique, rapide et désintermédié des litiges, aux mains des compagnies d’assurance ou encore, directement des entreprises conceptrices. C’est le scénario prospectif décrit par un acteur de l’édition juridique :
« En fait, le débat va assez vite devenir “l’humain coûte, l’IA coûte beaucoup moins ; l’un est très fiable, l’autre l’est moins”, à quel niveau on place le curseur ? Ça va dépendre… Moi je développe une idée qui fait hurler, qui est de dire que le justiciable aura le choix. On lui dira “mon petit gars, voilà, t’as deux options. Soit tu prends la machine – dans certains types de contentieux, hein, pas sur tout –, t’appuies sur le bouton, tu payes cinq euros […] et je te donne une solution qui, à 95 %, a des chances d’être juste. Soit tu veux tes 100 %, tu veux de l’humain, d’abord t’auras rien avant neuf mois, parce que c’est les délais en 1ère instance. Tu vas prendre ton avocat, t’en as pour 3 000 euros, etc. ” Donc, à votre avis… Dis-moi si t’es riche ou pas riche, si t’es pressé pas pressé, si t’es le grand public ou un professionnel… Ça va se faire comme ça. »
[Responsable IA, maison d’édition juridique]
Ainsi, si les craintes de remplacement exprimées par les professionnel·les du droit face à l’essor de l’IA juridique ont souvent été analysées comme une opposition à l’avènement de « machines automatisées », l’attention à l’espace social au sein duquel émergent ces outils permet de comprendre que la crispation concerne sans doute autant la défense des frontières autour d’une activité légitime exclusive que le simple rejet d’un outil technique. La lutte pour la préservation des frontières du monde de la justice passe ainsi, pour ses membres, par une revalorisation de leurs compétences propres, au sein d’arènes dans lesquelles justiciables et régulateurs jouent le rôle d’arbitres.
Ces réticences marquent l’espace social au sein duquel voient le jour, depuis 2017, les premières expérimentations d’IA juridique. Elles colorent les débats entourant le déploiement en juridiction de certains outils conçus par les start-up de la legal tech, ainsi que l’internalisation de la fabrique d’IA par les institutions centrales du monde de la justice. La polarisation des magistrat·es a ainsi joué un rôle important dans l’abandon du projet Datajust par le ministère de la Justice, ainsi que dans le refus de renouveler l’expérimentation par la profession d’outils qualifiés de « justice prédictive », issus du monde de l’entreprenariat numérique.
Au moment de la rédaction de ces lignes, la trajectoire des algorithmes d’IA juridique, nés au sein d’entreprises privées et pris en main par une portion favorisée du monde de la justice – au sein de la Chancellerie et des Cours suprêmes – s’est ainsi arrêtée aux portes des tribunaux. Face à l’IA, les professionnel·les de terrain défendent doublement cette juridiction professionnelle exclusive : d’une part, face à un mode de traitement « industriel » de l’information, insensible à la singularité des situations concernées ; et d’autre part, face à de nouveaux acteurs, issus du monde de l’entreprenariat numérique, susceptibles de tirer profit de cette expertise algorithmique pour questionner le monopole de la magistrature sur l’activité juridictionnelle, et ouvrant la perspective de son ubérisation. En cela, les problématiques auxquelles se confrontent les professionnel·les du droit face à l’essor de l’IA s’apparentent à celles traversant d’autres espaces professionnels également caractérisés par des expertises anciennes et régulées, telles que ceux de la médecine, de l’architecture ou encore, du journalisme.
1Traitement de données personnelles visant à empêcher leur association à une personne physique sans information supplémentaire, par opposition à l’« anonymisation » désignant la suppression définitive de toute possibilité de réidentification.
2Extraits d’entretiens avec des magistrat·es.
3Cardon, Dominique. À quoi rêvent les algorithmes ? Nos vies à l’heure des big data. Paris, Le Seuil, 2015.
4Le syllogisme est une forme de raisonnement logique, permettant d’aboutir à une conclusion juridique par l’articulation des deux prémisses que constituent les faits, d’une part, et la règle de droit, d’autre part.
5Voir les travaux sur les activités d’annotation pour l’IA, souvent sous-traitées et délocalisées. Par exemple : Le Ludec Clément, Maxime Cornet, « Enquête : derrière l’IA, les travailleurs précaires des pays du Sud ». The Conversation, 26 mars 2023, [en ligne], http://theconversation.com/enquete-derriere-lia-les-travailleurs-precaires-des-pays-du-sud-201503
6Sylvie Cinamonti et Jean-Baptiste Perrier. « Les enjeux de la déjudiciarisation ». Paris, Mission de recherche Droit et Justice, 2018.
7Papa Techera Fabrizio, Intelligence artificielle : le risque d’un « Netflix du droit », Le Monde, 15/11/2019, [en ligne], www.lemonde.fr/idees/article/2019/11/15/le-risque-d-un-netflix-du-droit_6019266_3232.html, consulté le 12/08/2023
8Nicolas Tarnaud, Clémentine Bourgeois et Laurent Babin. « Les professions règlementées à l’épreuve de l’ubérisation du droit : vers un monde sans avocat ? » Management & Sciences Sociales, no 25 (1er décembre 2018): 103.
Sur le même sujet
Articles les plus consultés
- La catastrophe radioactive de Goiânia au Brésil. Conflits sur l’interprétation d’un désastre, comment vivre après ?
- Quand les arts détournent l’intelligence artificielle
- L’éducation supérieure dans la Russie post-soviétique
- Manifeste technopolitique
- Réaction de Bamba Gueye Lindor après le passage de Joey Strarr dans l’émission de Karl Zéro, dimanche décembre à h

