Le hasard clinique ou la crise de la rationalité médicale

Depuis l’Antiquité, l’hybridité de la médecine, mêlant la science à l’art, la rend étrangère à la classification de l’épistémè. Relevant à la fois d’un savoir général des causes et d’une pratique singulière du soin, la médecine a été conceptualisée par les Anciens sous la forme d’un art stochastique1. Elle est une visée, un art inachevé. Animée par une volonté théorique de soigner, le médecin vise la guérison de son patient autour de gestes et de remèdes connus. Seulement, viser et atteindre la cible sont choses différentes. Dans la visée, la finalité est incertaine, le risque de l’échec est toujours présent dans l’exercice de l’art. Il en découle que la médecine n’est pas à proprement parler l’art de guérir, mais celui de soigner en vue de guérir, ou pour le moins, de soulager la douleur des malades. En tant que visée, la médecine tend à rendre positif le hasard par un usage éclairé de la conjecture : « La médecine est un art conjectural, et comme tel, assez souvent juste, mais quelquefois trompeur ; en conséquence, une indication qui induit à peine en erreur une fois sur mille ne saurait être dédaignée, puisque ses données sont justes dans l’immense majorité des cas2 ». À en croire Celse, le Cicéron de la médecine, lorsque le praticien exerce son art avec succès sur un grand nombre de cas, l’erreur occasionnelle perd de sa valeur. Le hasard se change peu à peu en certitude et le traitement en remède.

Probabilités cliniques

Cette hybridité de la médecine s’est heurtée, avec la clinique du XIXe siècle, au problème spécifique de la numérisation des données de l’expérience. En rejetant le modèle général des pathologies de l’âge classique, la clinique voulut entièrement refonder son savoir à partir d’une pratique théorique concrète. Elle organisa ainsi une approche empirique du pathologique dans le rapport singulier du regard médical et du corps malade. Mais, derrière l’importance du coup d’œil parcourant la matérialité morbide du corps, une exigence de rationalité surgissait en silence.

Avec ou sans nombre, les cliniciens pondéraient leur jugement par une évaluation raisonnée du probable. Selon les mots de Ian Hacking : « Il est notable que cette probabilité qui émerge si soudainement a les deux visages de Janus. D’un côté, elle est statistique et s’applique aux lois stochastiques des processus aléatoires. De l’autre, elle est épistémique (relative à la connaissance) et concerne l’évaluation des degrés auxquels il est raisonnable de croire en la vérité de propositions n’ayant rien de statistiques3 ». La rationalité médicale s’articula dès lors selon cette double nature du probable, en empruntant à la fois les voies de l’intuition esthétique et du calcul mathématique.

Cette dualité se constitua historiquement sous la forme d’une crise de la rationalité médicale. La clinique du XIXe siècle a eu à hésiter entre une médecine des phénomènes et une médecine des cas. En se demandant comment extraire la certitude du hasard et favoriser les chances de guérison, la clinique se trouva dans l’embarras. À l’avant-garde de la pensée scientifique, certains proposèrent d’établir la pratique médicale sur la loi des grands nombres là où d’autres s’y refusèrent pour favoriser une clinique des phénomènes.

La statue et le démon

« Vous ne trouverez aucune mesure, aucun poids, aucune forme de calcul à laquelle vous puissiez rapporter vos jugements pour leur donner une certitude rigoureuse. Il n’y a d’autre certitude dans notre art que les sensations4 », écrivait Cabanis en 1803. Les cliniciens de la première heure, qui ne juraient que par le sensualisme de Condillac, affirmaient l’art médical contre la science des nombres. La mesure devait rester intensive, au plus proche de la vitalité et du mouvement. Il s’agissait de former une « esthétique de la guérison » capable de déjouer l’incertitude.

La « statue de Condillac » fut érigée en symbole de cet art clinique. L’exercice de l’expérience qu’elle supposait s’apparenta à l’éducation médicale des sens5. C’est par une association éclairée de l’hôpital qui soigne et de la clinique qui forme le regard, qu’a émergé une nouvelle prise en charge de la maladie. Les apprentis médecins, comparables à la « statue de Condillac », découvraient « qu’il ne suffit pas de voir pour se faire une idée » ; il leur fallait « apprendre à regarder6 ». Cet entraînement du regard passait nécessairement par la différenciation des symptômes et des signes au moyen de techniques d’auscultation médiate, et par l’identification répétée des lésions sur un grand nombre de cadavres. Seul l’exercice itératif du regard pouvait rendre visible le vrai par-delà l’incertitude de l’art.

Le patient, quant à lui, fut pris en charge par un contrat d’assistance assurant la gratuité des soins en contrepartie de sa mise en lumière clinique. En devenant un objet d’instruction pour la formation des médecins, le patient payait son tribut à la société via l’enrichissement du savoir. Les riches trouvaient dans ce dispositif un intérêt certain et ne manquèrent pas d’octroyer des dons aux hôpitaux : « Les dons des bienfaisants » adoucissent « les maux du pauvre d’où résultent les lumières pour la conservation du riche7 ».

Paradoxalement, cette expérience clinique s’est dédoublée sous l’égide d’une autre figure, celle du « démon de Laplace ». L’accumulation de données cliniques dans les hôpitaux laissait entrevoir la possibilité d’une application de la loi des grands nombres au domaine du pathologique. En multipliant l’observation sur des phénomènes morbides aléatoires, on entrevit la possibilité d’identifier des régularités à même de changer l’incertitude en connaissance. Le hasard est une illusion produite par l’ignorance des causes, affirmait-on. La médecine découvrait ainsi sa part d’esprit géométrique.

On spéculait alors sur la possibilité pratique du démon. Cette « intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent », capable d’embrasser « dans la même formule les mouvements des plus grands corps de l’univers et des plus légers atomes8 », offrait un nouvel horizon pour la médecine clinique. Arguant que le hasard provenait d’une mauvaise lecture du livre de la nature, la clinique voulut se familiariser avec le langage mathématique. Il fallait pour cela multiplier les regards sous le schème du nombre.

Le « démon de Laplace » se dressa face à la « statue de Condillac » pour devenir le symbole qui devait conduire à la numérisation de la clinique. L’espoir de déchiffrer le hasard et de guérir à travers l’accumulation massive de données anima ainsi la pensée médicale au tournant des années 1830. Les cliniciens, surnommés les « numéristes9 », proposaient alors d’évaluer les variations et les fréquences dans l’ordre de séries aléatoires pour établir des profils pathologiques précis. On considéra alors l’urne de Bernoulli10 comme modèle de l’étude clinique. Là où Bernoulli proposait de calculer la fréquence de tirage des boules blanches et des boules noires pour en mesurer les constantes et les variables, les numéristes proposaient d’étudier la fréquence des symptômes, des signes, des lésions, des guérisons et des décès pour caractériser les pathologies et définir des traitements adéquats en fonction de l’âge, du sexe ou encore de la profession des patients.

Dans ce dispositif de traitement de données, ce sont les compagnies d’assurance qui trouvaient un nouveau terrain de jeu. Après s’être attaquées aux rentes viagères et aux tontines, les statistiques et les calculs de probabilités mettaient à jour un nouveau champ, immense, d’exploitation de données cliniques. Le clinicien devenait un expert capable d’évaluer les chances de guérison, et donc par défaut, les risques de la mort.

La loi des grands nombres face à la loi des grands noms

La méthode numérique promue par les numéristes fit école autour de la Société médicale d’observation qui organisa des récoltes de données cliniques dès 1832. La médecine des cas, aspirant à la vérité promue par la loi des grands nombres, s’opposait au dogmatisme de la loi des grands noms. Pierre Louis, père de la méthode numérique, affirmait ainsi contre l’« expérience des siècles » de la tradition hippocratique que, « plus les cas seront nombreux, plus les résultats auxquels ils conduiront seront exacts11 ». Abandonner les aphorismes des Anciens au profit des données numériques cliniques ouvrait pour la médecine la promesse d’un avenir fécond.

Contre le numérisme, les dogmatiques élevèrent des barrières éthiques et épistémiques. La réduction des différences individuelles à un quotient arithmétique ne répondait ni aux exigences du soin ni aux considérations thérapeutiques de la singularité du patient : elle constituait un danger pour la médecine. La clinique n’avait que faire d’une médecine qui soigne sur la base d’une moyenne, au détriment d’une prise en considération absolue du patient : « Vous faites ainsi de la science par quart, par tiers, par cinquième, vous souciant peu du reste12 », invectivait Risueño D’Amador contre Pierre Louis. Le spectre de l’« homme pathologique moyen » laissait entrevoir une crise au cœur de la clinique.

En effet, selon Risueño D’Amador, la pratique des numéristes venait saper la thérapeutique par l’administration de remèdes généraux incompatibles avec l’exigence de soin. Pour les numéristes « la maladie est tout, le malade rien… le traitement sera identique sur des malades pris indistinctement… le traitement qui compte le plus grand nombre de guérisons est le plus convenable13 », écrivait-il. Le problème de la prise en compte de la singularité des patients fut ainsi soulevé contre la mise en place de traitements basés sur des moyennes de populations.

Compte tenu de l’exigence de soin, la connaissance médicale ne pouvait aucunement se satisfaire d’une généralisation issue de calculs de probabilités. La loi des grands nombres semblait impropre à comprendre l’hétérogénéité des phénomènes morbides. L’incompatibilité de la médecine avec la mathématique se développa sur le terrain de l’hétérogénéité matérielle du pathologique que l’homogénéité des nombres ne pouvait pleinement circonscrire : « L’un des résultats de cette loi des grands nombres, c’est de faire disparaître dans le quotient, toutes les différences, toutes les irrégularités, lesquelles se balancent les unes par les autres, de manière à se sauver, comme on le dit, par la quantité14 ».

Face à ces arguments, les numéristes ne restèrent pas sans réponse. Selon ces derniers, leurs opposants cherchaient avant tout à dissimuler leurs piètres résultats thérapeutiques en ne recourant pas aux statistiques. Une exigence de transparence venait défier la tradition. La controverse avait émergé en 1824, lorsque des médecins avaient condamné la pratique des saignées de François Broussais sur la base de statistiques publiées dans les gazettes de médecine. En utilisant les registres du service de François Broussais du Val-de-Grâce, ils mirent en évidence le taux de mortalité élevé obtenu par la pratique des saignées15. Pour les numéristes, c’était la preuve que la médecine tuait dans l’innombrable.

La mathématique offrait une chance de prouver ou d’invalider les pratiques thérapeutiques en fonction de leurs résultats. Il s’agissait de compter en détail ce que les Anciens comptaient en gros, afin de réduire le risque de décès. Selon les mots de Pierre Louis : « On demande comment un calcul exact, c’est-à-dire réel, n’est pas préférable à un calcul approximatif ou de mémoire, c’est-à-dire imaginaire16 ». La médecine devait en finir avec les approximations subjectives pour se baser sur l’objectivité numérique des faits.

Le « démon de Laplace » devait finalement unifier la pratique clinique. En mêlant tous les regards, il offrait une promesse de preuve permettant de révéler la vérité du pathologique. Il fallait, en ce sens, démultiplier les points de vue afin de faire advenir la certitude par-delà les brumes du hasard : « Les phénomènes qui semblent le plus dépendre du hasard présentent donc, en se multipliant, une tendance à se rapprocher sans cesse de rapports fixes17 ». Telle fut la visée qu’empruntait la clinique des numéristes. Il fallait corriger le hasard par l’accumulation de données cliniques afin que l’erreur perde de sa valeur. En s’amenuisant dans les grands nombres, l’exception confirmait la règle.

De l’expérimentation à l’essai clinique randomisé

La crise de la rationalité médicale trouva une résolution partielle avec les découvertes de la médecine expérimentale. Le débat clinique des années 1830 fut ainsi relégué dans l’oubli à la faveur de l’essor de la médecine de laboratoire. L’idée de fonder la pratique médicale sur la loi des grands nombres s’était effondrée sous les attaques répétées de Claude Bernard selon qui : « Le médecin n’a que faire de la loi des grands nombres, loi qui, suivant l’expression d’un grand mathématicien, est toujours vraie en général et fausse en particulier18 ». Pour Claude Bernard, le jugement médical devait reposer sur la connaissance de lois biologiques et la mesure de leurs perturbations.

Les découvertes de la microbiologie pasteurienne permirent par la suite l’essor de traitements efficaces développés en laboratoire. Cependant, le hasard ne manquait pas de s’inviter dans les essais cliniques permettant d’évaluer les remèdes. Les biais dans les conditions de l’expérimentation, la variation des effets individuels et la multiplicité des jugements rendus convoquèrent à nouveau la loi des grands nombres au sein du laboratoire. En 1937, Austin Bradford Hill proposa de perfectionner les essais cliniques en organisant des comparaisons en double aveugle. L’idée étant que, pour éviter les biais dans le jugement, on devait corriger le hasard par le hasard : « Les effets d’un traitement doivent être comparés avec les effets d’un autre traitement… et parce que les patients varient dans leur réponse, nous devons en avoir un grand nombre pour rendre la comparaison informative et convaincante19 ».

Hill prôna l’anonymisation des patients afin d’éviter les biais subjectifs. Paradoxalement, l’essai clinique randomisé20 devait satisfaire à une exigence d’effacement du regard clinique. En faisant croître le hasard en double aveugle, on diminuait le risque de l’erreur. On répartissait donc de manière aléatoire les patients en deux groupes, l’un recevant un traitement A et l’autre un traitement B. Le médecin lui-même ne devait pas savoir quel traitement il administrait à ses patients. L’utilisation d’enveloppes scellées, remises aux statisticiens, permettait, après coup, d’évaluer les résultats des traitements A et B. En effaçant la subjectivité du médecin et du patient, on concrétisa la création d’une médecine basée sur les preuves issues de la recherche.

Dans le prolongement de cet effacement de la subjectivité, Hill suggéra de déresponsabiliser le médecin. Avec le consentement du patient et du médecin à entrer dans le hasard de l’essai clinique, la responsabilité s’effaçait d’elle-même : « Une fois qu’il a été décidé que le patient a le bon type pour être inclus dans l’essai, la méthode d’affectation par randomisation retire toute responsabilité au clinicien21 ». Le désengagement de l’essai clinique dans l’étude des faits a ainsi accru l’objectivité pharmaceutique au détriment de la subjectivité thérapeutique. La médecine devenait ainsi une science stochastique, une visée sans sujet.

Les paradoxes des I. A en clinique

La visée scientifique du « démon de Laplace » amena au rêve de remplacer les médecins par des I.A. L’essor des systèmes d’aide à la décision clinique laissait espérer l’avènement de machines capables de surpasser les performances diagnostiques des cliniciens22. Entre 1954 et la fin des années 1980, cet engouement donna lieu à d’ambitieux projets technologiques de substitution du regard médical. Les systèmes statistiques, les systèmes bayésiens23 et les systèmes de logique floue, devaient jouer un rôle direct dans la prise de décision clinique. Mais ils ne purent s’adapter aux exigences éthiques. Leur échec amena à la formation de big data qui, loin de jouer un rôle direct dans la prise de décision clinique, se cantonnent aujourd’hui à un rôle indirect de documentation.

Avec l’espoir de déchiffrer le hasard clinique, les systèmes statistiques formalisèrent les critères d’identification des pathologies à partir de bases de données diagnostiques24. Bien que performants dans la formulation de diagnostics simples, ces systèmes conduisaient irrémédiablement à une « représentation paramorphique25 ». L’imitation informatique étant la paramorphe26 du jugement clinique – au même titre que la calcite est la paramorphe chimique de l’aragonite – il subsistait de l’incomplétude, une contingence qui échappait aux formules, et qui pourtant faisait toute la différence : la machine proposait des modèles linéaires là où le médecin définissait des raisonnements non-linéaires. En somme, ces systèmes statistiques étaient défaillants dans la formulation de diagnostics sur des maladies rares. Ils ne découvraient que ce qu’ils connaissaient déjà.

Les systèmes bayésiens laissaient entrevoir la possibilité d’une adaptation plus grande de la machine en la conformant aux données d’un service hospitalier27. Ainsi, avant même que le patient n’entre en consultation, la probabilité que ce dernier ait telle ou telle maladie était calculée par la machine. La probabilité a priori de la maladie définissait une « conjecture initiale », selon la fréquence des diagnostics et des cas. Il s’agissait d’une première hypothèse qui se trouvait confrontée à une hypothèse a posteriori, appelée « conjecture d’observation ». La machine calculait à partir des informations acquises sur l’état du patient les probabilités qu’il soit atteint de telle ou telle maladie par confrontation à l’hypothèse initiale. Le problème de ce genre de système apparut au niveau de la localisation des bases de données. D’un hôpital à un autre, la conjecture initiale différait. En ce sens, on ne pouvait pas utiliser les bases de données d’un hôpital x en tant que conjecture initiale d’un hôpital y sans falsifier la conjecture d’observation.

Pour ce qui relève des modélisations au moyen de la logique floue, elles se basèrent, a contrario des systèmes statistiques, sur l’idée que le jugement du médecin est non-linéaire. Il s’agissait de systèmes de « deep learning » susceptibles de s’améliorer par leur activité propre. Ces systèmes supposaient qu’en médecine, les concepts utilisés et les méthodes discursives étaient vagues, mais qu’ils contribuaient néanmoins à la formulation de diagnostics adaptés aux circonstances qui entourent un phénomène pathologique. La logique floue articulait, à partir de la théorie des ensembles, des intersections entre des symptômes et des maladies, en tenant compte du processus aléatoire d’émergence du pathologique. L’aspect flou de la symptomatologie informatique permettait ainsi une modulation du système en fonction des informations transmises par le patient, sous la forme de réponses binaires « oui » ou « non ».

L’effet « boîte noire » de ces systèmes ne permettant pas de connaître les raisonnements conduisant à l’identification d’une maladie ou à l’administration d’un traitement, ils ne permirent pas d’intégrer ces I.A. dans la pratique clinique. Plus généralement, le problème central provenait du fait que les développeurs privilégiaient les performances des I.A. plutôt que la résolution de problèmes cliniques concrets.

La plus célèbre de ces I.A., dénommée MYCIN, fut utilisée dans un cadre expérimental pour la formation clinique des étudiants de Stanford28. À Palo Alto, la formation médicale des sens s’appuyait sur le « démon de Laplace ». Mais la transparence diagnostique et thérapeutique sur l’état du patient, qui permet le partage des responsabilités dans une décision commune, n’était tout simplement pas assurée par la machine. Il n’était donc pas possible de lui faire jouer un rôle direct dans la prise de décision.

Ces systèmes, bien que non effectifs dans la pratique clinique actuelle, permettent toutefois de problématiser la responsabilité médicale à l’aune de la technologie. En cas d’erreur médicale, lors d’une utilisation clinique des I.A., la faute incombe-t-elle au médecin ou bien au programmeur de la machine ? La causalité entre la faute et le préjudice dus à la computation devient difficile à déterminer. L’erreur de la machine provenant des données et des probabilités problématise à nouveau le hasard clinique.

Pour éviter les reports de responsabilité, la loi « Informatique et liberté » de 1978 interdit en France depuis 40 ans la prise de décision sur la base d’un algorithme seul. En médecine, il est toutefois difficile de vérifier s’il s’agit d’une décision prise par l’humain et non par une machine, d’autant que les machines peuvent exercer une influence implicite sur le jugement rendu. L’exigence de la preuve ne provoque-t-elle pas une « pensée machine » chez le médecin comme chez le patient, qui exige, lui, une efficience corroborée par des nombres ? La décision n’est-elle pas motivée par les preuves statistiques et probabilitaires ? L’évaluation du risque doit alors toujours être conjuguée avec la prudence de la visée curative si elle ne veut pas aliéner la décision.

Le danger des big data pour le service de santé

L’introduction des big data en médecine permettent de perfectionner de jour en jour le savoir général des causes pathologiques par l’accumulation exponentielle de données numérisées. En proposant des traitements de précision, les sciences médicales considèrent la prise en charge « personnalisée » comme acquise dans l’ordre numérique des data. La personnalisation est dès lors ce qui correspond le mieux au profil biologique de l’individu. Bien que le projet de substitution du médecin par des I.A. ait échoué à la fin des années 1980, il semble que la crise de la rationalité médicale ne soit pas pour autant achevée.

Dans cette dynamique, les politiques de santé qui, depuis les années 2010, sont tombées dans l’engouement spéculatif du big data, tendent à réformer les services de santé par des moyens technologiques afin, dit-on, de particulariser les soins et d’améliorer les systèmes d’assistance et d’assurance maladie29. Les perspectives françaises pour l’amélioration des services de santé dressées par le rapport prospectif de Cédric Villani sont symptomatiques de cette fascination pour les performances de l’IA, au détriment de problèmes cliniques concrets.

Le rapport propose de faire croître la pensée machine en formant davantage de médecins ingénieurs, et en familiarisant les médecins de second rang à l’usage de l’I.A. Plus étonnant, on y préconise une sensibilisation de l’empathie des médecins par « expérience virtuelle » pour soi-disant, « mieux voir et comprendre la vie des patients ». Enfin, sur un plan légal, le texte propose de considérer la personne du médecin, « en l’absence de la reconnaissance d’une personnalité juridique autonome pour l’algorithme et le robot », comme seul responsable des erreurs cliniques30. Ce dernier point laisse entrevoir la possibilité d’une prise de décision directe des I.A., en faisant cependant porter toute la responsabilité aux médecins : les programmateurs ne seront pas inquiétés, sauf en cas de dysfonctionnement manifeste de la machine.

Tout cela est dangereux et ne correspond aucunement aux exigences d’une médecine dont la vocation est le soin et l’assistance aux malades. Il s’agit davantage de transformer l’hôpital en terrain d’expérimentation technique, plutôt qu’en lieu de formation clinique, pour favoriser les performances des machines et rentabiliser les activités au moyen des data. On peut s’inquiéter de la place de la clinique dans un tel dispositif technologique, et ceci, à plusieurs égards :

– L’accroissement de la pratique ambulatoire, la réduction du nombre de lits et de personnel, manifeste le développement de cette médecine des grands nombres qui semble davantage capable d’accueillir des données dans des data centers que des corps malades au sein des services concernés ;

– Le développement et l’hétéromation de la télémédecine, qui éloigne le patient du médecin par l’intermédiaire de standardistes pas ou peu médicalement formés, montre combien la machine seule est loin de satisfaire à une exigence diagnostique à distance ;

– Les malades chroniques sont de plus en plus isolés au cours de leur traitement, alors que des dispositifs de suivi en temps réel sont appareillés à leur corps. L’autonomie qu’on leur assigne engendre une solitude thérapeutique. L’expérience symptomatologique de la maladie est reléguée à des signes numérisés traités à distance par des machines.

– Dans le traitement des maladies rares, les systèmes de big data sont rendus inutiles par le manque de données. Cette lacune montre la nécessité, pour la recherche médicale, d’une approche clinique appuyée sur la singularité du patient. Face à la mutation des maladies et à l’apparition de nouvelles, le regard clinique ne doit pas être éludé au profit d’une connaissance de l’homme pathologique moyen.

En somme, un dispositif de santé qui considère la personnalisation du soin comme acquise par la précision des traitements et le profilage biologique des individus, tend naturellement à dévaloriser le soin au profit de la connaissance technologique. Ce projet l’amène inévitablement à en finir avec les hôpitaux publics, le système d’assistance et la médecine de proximité à la faveur d’une restructuration high tech. Face à cette perspective, on doit opposer le souci d’une médecine pour qui le soin est une réalité du quotidien. La crise de la rationalité médicale engendre nécessairement une crise sociale de la médecine dont on ne perçoit que les prémisses.

Pour un regard clinique

« Un coup de dés jamais n’abolira le hasard31 ». La médecine, aussi documentée soit-elle, ne peut faire l’économie de la prudence et de l’intuition du regard clinique. La science est une partie essentielle de la visée vers la guérison, mais elle ne trouve à s’éclairer que lorsqu’elle s’allie à l’exigence subjective du soin. Le hasard ne peut se transformer en chance de guérison que dans l’alliance vertueuse de la technologie et du regard clinique. Sans cela, le soin, si essentiel à la guérison, est voué à disparaître. L’éthique médicale ne sera jamais acquise dans des protocoles, aussi « personnalisés » soient-ils.

La clinique reste toujours à refaire pour préserver les valeurs de la santé, sans quoi les sciences médicales tendront à brutaliser le patient en le réduisant à un objet de connaissance. « Toute connaissance, en posant l’impersonnalité de l’objet, légitime le mépris qu’elle en fait en rendant possible l’action qui détruira ou changera cet objet. La première des conditions pour brutaliser un être est de le tenir pour brut et c’est pourquoi la haine est d’abord retrait de valeur ou refus de valeur32 ».

1 L’action de la « visée » dans la thérapeutique se trouve dans les écrits d’Hippocrate sous la forme d’une « Stochazesthai ». Pour ce qui est de la définition de la médecine en tant que visée, Celse utilise le terme « ars conjecturalis » et Alexandre d’Aprhodise, celui de « Stochastikê Technê ».

2 Celse A.-C., Traité de médecine, trad. A. Védrènes, Paris, Masson, 1876, p. 80.

3 Hacking I., L’émergence de la probabilité, Paris, Seuil, Coll. Liber, 2002, p. 38.

4 Cabanis P.J.G., Du degré de certitude en médecine, Paris, Chez Crapart, Caille et Ravier, 1803, p. 130.

5 Corvisart J.-N., Préface à la traduction d’Auenbrugger, Nouvelle méthode pour reconnaître les maladies internes de la poitrine, Paris, 1808, p. viii-ix.

6 Condillac E.B., Traité des sensations, Paris, Ch. Houel, 1798, p. 281.

7 du Laurens A., Moyens de rendre les hôpitaux utiles et de perfectionner la médecine, Paris, 1787, p. 12.

8 Laplace P.-S., Essai philosophique sur les probabilités, Paris, Courcier, 1814.

9 Les numéristes les plus importants de l’époque étaient Pierre Charles Alexandre Louis, Jean-Baptiste Bouillaud et Jules Gavarret.

10 L’urne, contenant des boules de deux couleurs soumises à un tirage aléatoire, est l’exemple classique d’une épreuve de probabilités, dite épreuve de Bernouilli. Bernoulli J., Ars conjectandi, opus posthumun accedit tractatus de seriebus infinitis, Bâle, Thurneysen Brothers, 1713.

11 Louis P.C.A., De l’examen des maladies et de la recherche des faits, in Mémoires de la Société Médicale d’Observation, Paris, Crochard, 1837, t. 1, p. 50.

12 Risueño D’Amador B., Mémoire sur le calcul de probabilités appliqué à la médecine, Paris, Baillière, 1837, p. 33.

13 Ibid., p. 43.

14 « Discussion sur la statistique médicale », in Bulletin de l’Académie Royale de Médecine, Paris, Baillière, 1836, t. 1, p. 702-703.

15 Miquel A., Nouvelle lettre à un médecin de campagne, Paris, Gabon, 1828.

16 « Discussion sur la statistique médicale », in Bulletin de l’Académie Royale de Médecine, op. cit., p. 743.

17 Laplace P.-S., Essai philosophique sur les probabilités, op. cit., p. 48.

18 Bernard Cl., Introduction à l’étude de la médecine expérimentale, Paris, Flammarion, Champs classiques, 2008, p. 244.

19 Hill A.B., « Aims and ethics » in Controlled clinical trials, Oxford, Blackwell, 1960, p. 3-4.

20 Essai permettant, au moyen d’une démarche expérimentale rigoureuse, d’évaluer l’efficacité d’une intervention de santé, par exemple, d’un nouveau traitement.

21 Hill A.B., The philosophy of the clinical trial, Édinbourg, E&S Linvingston, 1962, p. 10.

22 Meehl P.E., Clinical versus statistical prediction, a theoretical analysis and review of the evidence, University of Minnesote Press, 1954.

23 Système graphique probabiliste mêlant informatique et statistique.

24 Lipkin M., Engle R.L.Jr., et al., Digital computer as aid to differential diagnosis”, in Arch. Intern. Med. 108:56-72, 1961.

25 Hoffman P.J., The paramorphic representation of clinical judgement, in Psychological Bulletin, Vol. 57, N°2, 1960, p. 116-131.

26 Altération d’une structure, organique ou minérale.

27 Lindley D.V., « The role of utility in decision making », In Journal of the royal college of physicians of London, 9 (3), 1975.

28 Shortliffe E.H., Computer-based medical consultation, MYCIN, New York, Elsevier, 1976.

29 OECD, ICTs and the Health Sector: Towards Smarter Health and Wellness Models, OECD Publishing, 2013.

30 Villani C. (dir), Donner un sens à l’intelligence artificielle, pour une stratégie nationale et européenne, 28 mars 2018, p. 200.

31 Titre du célèbre poème graphique de Stéphane Mallarmé.

32 Canguilhem G., « Commentaire du troisième chapitre de L’Évolution Créatrice », Bulletin de la faculté des lettres de Strasbourg, 21, 1942, p. 141-142

Mathieu Corteel

Attaché temporaire d’enseignement et de recherche à la faculté de médecine de l’Université de Strasbourg, il est docteur en philosophie de l’Université Paris-Sorbonne (Paris 4), qualifié aux fonctions de maître de conférences en sections philosophie et épistémologie et histoire des sciences. Ses recherches portent principalement sur l’histoire épistémologique des mathématiques appliquées à la médecine ainsi que sur les développements des big data et de l’IA dans le secteur de la santé. Membre du comité de rédaction de la revue Multitudes, il a coordonné la majeure « Renaissance de la clinique » du no 75. Il est l’auteur de l’ouvrage Le hasard et le pathologique, à paraître prochainement aux Presses de SciencesPo.