Majeure 62. Subjectivités numériques

L’algorithmique a ses comportements que le comportement ne connaît pas

Partagez —> /

On ne compte plus les usages du qualificatif « algorithmique » qui confirment le succès tout récent de la notion d’algorithme sur le plan pratique comme théorique. De la « vie algorithmique » à la « gouvernementalité algorithmique », il semblerait que le terme évoque un phénomène de fond, un monstre des abysses dont on n’a pour l’instant que des bribes, des images, des légendes… des visions parcellaires qui nous forcent à meubler et à métaphoriser, à fermer les yeux et à imaginer. Mais avant d’être un qualificatif, l’algorithmique est un substantif qui renvoie à la décomposition d’un calcul précis et à sa formalisation en une opération de calcul générique. À partir de ce constat lapidaire, une inversion des fonctions des mots s’impose si nous voulons penser la pluralité des algorithmes ; c’est l’algorithmique comme l’ensemble du savoir sur un certain mode d’existence qu’il faut requalifier.

L’histoire des mathématiques a sa face claire, celle des démonstrations logiques et axiomatiques, et sa face opaque, celle du calcul et de son instrumentation[1]. D’un côté, les mathématiques comme déploiement de la raison, de l’autre sa pratique instrumentale dans la résolution de problèmes. Si la démonstration a longtemps joui d’un privilège épistémologique sur l’algorithme, celui-ci n’est pourtant ni le résultat d’une simple mise en opérations de la première par le second, ni le signe d’une hétérogénéité fondamentale entre ces deux pôles qui se retrouvent bien moins distingués dans les origines des mathématiques chinoises ou mésopotamiennes[2], par exemple, que dans la mathématique euclidienne. Gilles Dowek montre par ailleurs que la constructivité des démonstrations[3]a participé à synthétiser ces deux vecteurs de la mathématique que sont le calcul et la logique, synthèse qui s’est prolongée avec l’automatisation informatique des démonstrations[4].

En d’autres termes, la formalisation algorithmique n’est pas une simple transposition d’un schème implicite ou d’un savoir-faire tacite sous forme d’un savoir explicite, elle n’est pas une extériorisation biunivoque mais une transformation – au sens où elle change la forme – du problème à résoudre. Transformer un problème en successions d’opérateurs logiques qui puissent être écrites sous forme de diagrammes, de schémas ou de réseaux change la nature même du problème. Ainsi, une recette de cuisine peut se formaliser algorithmiquement mais alors il s’agit bien de l’algorithme de la recette et non pas de l’ensemble du savoir-faire culturel et cognitif que celle-ci implique et exprime.

Nous allons essayer de reposer les bases de la question « algorithmique » en termes de sa problématicité : quel est le problème que l’algorithme doit résoudre pour que l’on puisse qualifier un mode d’existence d’algorithmique ? En formulant la question de la sorte, nous reprenons, tout en la déplaçant, une conception du « problème » qui s’inspire du nexus qu’articule Muriel Combes entre Canguilhem, Foucault et Simondon. Si, sous cette impulsion, notre intention est d’élargir l’idée d’activité normative – soit la manière qu’a un mode d’existence de réorganiser son milieu en fonction des problèmes que celui-ci lui pose – de sorte que cette idée puisse également et à sa manière rendre compte des comportements qu’ont les algorithmes, il nous faut d’abord remonter à la phase a-normative. De là, nous proposerons, en nous appuyant sur la théorie du cycle de l’image de Simondon, une approche transductive du comportement algorithmique. Envisageons le problème, si l’on ose dire, plus en amont.

 

L’algorithmique mécanique

Dans sa forme classique, l’algorithmique était une manière de réduire la diversité d’un type de problèmes à une formalisation générique. Qu’importe la taille du calcul, l’algorithme de division, par exemple, permet d’établir une succession d’opérations de calcul qui donneront, avec les mêmes entrées, systématiquement la même sortie. L’algorithme produit un résultat à partir d’une disparité, et ce au terme d’un temps donné[5]. Il ne peut y avoir d’algorithme dont le temps d’exécution serait infini : si tel était le cas, toute sa puissance opératoire serait réduite au néant. Nous proposons d’appeler l’algorithme classique « mécanique » dans la mesure où sa technicité correspond parfaitement au modèle de la physique mécaniste.

En abordant l’émergence de l’algorithme capable de transformer la durée de la chute d’un objet en sa distance parcourue, Dowek rappelle que « le système physique constitué de la tour, de la balle, du chronomètre qui permet de mesurer le temps et de la toise qui permet de mesurer les hauteurs est une machine à calculer »[6] et que « la chose à expliquer, après Galilée, est la raison pour laquelle une telle proposition existe. Si l’on accepte la thèse selon laquelle cette proposition existe parce qu’il existe un algorithme qui permet de calculer d [distance] quand on connait t [temps], on peut se donner comme objectif de mettre en relation ces grandeurs physiques, non par une proposition, mais par un algorithme. »[7] Il existe ainsi une intrication constitutive entre l’algorithme comme application d’un schème d’opérations abstrait et comme formalisation d’une pratique instrumentale.

L’idée selon laquelle une démonstration peut être interprétée et construite algorithmiquement jette sur le devant de la scène l’indissociabilité d’une théorie et de ses instrumentations. C’est toutefois la capacité d’écrire des algorithmes qui puissent s’exécuter indépendamment du mathématicien qui les a écrits – c’est-à-dire l’invention de machines à calculer (les ordinateurs) qui ne supposent aucune intervention humaine entre l’entrée et la sortie du calcul, le début et la fin de l’algorithme – qui a permis à ce dernier de se constituer en champ de savoir et d’instrumentation relativement autonome : « l’algorithmique ». Il a fallu poser l’algorithme comme résolution de problèmes formalisables et calculables pour que celui-ci devienne algorithme. C’est ainsi qu’ont pu voir le jour l’analyse de la complexité des algorithmes d’un côté et la théorie de la complexité algorithmique de l’autre. Si la première est une mesure de la quantité de ressources spatio-temporelles nécessaires à l’exécution d’un algorithme donné, la seconde évalue les quantités de ressources nécessaires pour résoudre des problèmes dont il existe des solutions algorithmiques ; les deux versants naissent d’un besoin de mesurer et comparer formellement[8] l’efficacité d’un algorithme indépendamment de la machine sur laquelle elle s’exécute. Autrement dit, si pour un même problème plusieurs solutions sont possibles, alors il s’agit de classer, hiérarchiser et comparer la performance des algorithmes qui les génèrent en prédisant a priori leurs comportements que l’on observe expérimentalement a posteriori.

On est ici face à une vision a-normative du comportement – entendons : un comportement dont l’activité n’invente pas de solution autre que celle qui lui a été donnée avant son exécution – où la pluralité des solutions à un problème se limite à une succession temporelle nécessaire et vérifiable. Pour le dire avec Bachimont : « l’algorithme spécifie que, les conditions initiales étant réunies, le résultat ne peut manquer d’être obtenu, selon une complexité donnée. Le programme est donc un moyen de certifier l’avenir, d’en éliminer l’incertitude et l’improbable pour le rapporter à la maîtrise. »[9] Même dans les machines de Turing dites non-déterministes avec des jonctions conditionnelles (« et », « ou », etc.), ces dernières sont toujours pro-grammées avant l’exécution de l’algorithme et ne sont pas le produit même de son exécution. Il s’agit donc d’un comportement pleinement déterminé, expérimentalement prédictible et observable ; un comportement qui ne fait rien si ce n’est ce qu’on lui dit de faire. En somme, tout sauf un comportement.

 

Une algorithmique « comportementale » ?

Inversement, ou du moins différemment, l’algorithmique contemporaine pourrait être qualifiée de « comportementale »[10] dans la mesure où sa normativité n’est pas uniquement la résultante d’une pro-grammation – d’une logique qui lui est imposée de l’extérieur par un programmeur – mais le travail réitératif de l’algorithme qui développe lui-même son propre modèle comportemental. C’est là le domaine du « machine learning » auquel nous allons tout particulièrement nous intéresser en prenant au sérieux la possibilité qu’une machine puisse apprendre, s’adapter et développer un comportement. Cela suppose de rapprocher l’algorithmique d’une normativité organique, tout en accordant une dignité à sa technicité non-organique. À en croire Domingos : « le machine learning n’a rien de magique ; il ne peut obtenir quelque chose à partir de rien. Ce qu’il fait c’est obtenir plus à partir de moins. Programmer, comme toute ingénierie, implique beaucoup de travail : il faut tout construire à partir de rien. L’apprentissage est davantage comme l’agriculture qui laisse faire le gros du travail à la nature. Les agriculteurs combinent les semences avec les nutriments pour faire pousser leurs cultures. Les apprenants combinent un savoir avec des données pour faire pousser leurs programmes. »[11] Autrement dit, une machine qui apprend est une machine vivante.

À prendre le vocable « machine-learning » au pied de la lettre, on se voit contraint d’admettre que l’algorithmique qui le sous-tend ne se réduit pas à la résolution d’un problème qui préexisterait à son exécution et que son déploiement fait advenir un ensemble de problèmes dont la résolution devient une activité dérivée et non plus première. Dire que la résolution d’un problème n’est pas ontologiquement première, c’est affirmer que l’activité d’un mode d’existence n’est pas d’abord le produit d’une détermination extrinsèque ; avant d’être orientée et déterminée, elle offre un ensemble de potentialités à son orientation, le matériau de ses déterminations à venir.

En reformulant les travaux de Canguilhem, Muriel Combes souligne que « «Conditionner» signifie toujours ici «susciter» ou «appeler», au sens de provoquer une réponse, et jamais «déterminer». Les conditions conditionnent au sens où elles sont un problème posé qui appelle l’invention d’une solution […] »[12]. Exister pour résoudre un problème signifie qu’une fois le problème résolu, l’existence elle-même a épuisé son devenir et n’a plus lieu d’être, ou alors – ce qui revient au même – que le problème se porte à une répétition quasi parfaite et que l’existence devient un problème redondant (pensons à la formalisation d’opérations de calcul ou à la division et la sérialisation du travail[13]). C’est pourquoi, « le milieu propose sans jamais imposer une solution. »[14] Là où l’algorithmique mécanique restait en quelque sorte soumise à la logique déductive des démonstrations mathématiques – c’est-à-dire au mouvement d’une connaissance universelle abstraite a priori vers la connaissance d’un cas particulier a posteriori, et donc à une temporalité dont la linéarité ne tolérait que les écarts ou variations prévus – l’algorithmique comportementale, en introduisant l’apprentissage comme activité centrale, semble accorder une place prédominante à l’induction comme opération de généralisation à partir de cas discrets et disparates. Pour reprendre Domingos, « Comme la déduction, l’induction (ce que font les apprenants) est un levier de savoir : elle transforme une petite quantité de savoir en entrée en une plus grande quantité de savoir en sortie. L’induction est un levier bien plus puissant que la déduction, nécessitant bien moins de savoir en entrée pour produire des résultats utiles mais, pour fonctionner, elle a quand même besoin de plus que zéro savoir en entrée. Et, comme tout levier, au plus on met dedans au plus on en ressort. »[15]

La vision de l’apprentissage qui est mobilisée par les tenants du machine-learning comprend en général trois fonctions (pour ne pas dire facultés) qui accordent une flexibilité à l’action : la mémoire, l’adaptation, la généralisation. Bien sûr, pour la machine (l’algorithme), la question est d’apprendre à partir des données, mais l’idée défendue est que si l’on qualifie le milieu numérique comme l’ensemble des flux et interactions « datafiés », alors on peut sans trop de peine comprendre le machine-learning à l’aune du comportement humain, comme un apprentissage basé sur des expériences passées : « reconnaître que la dernière fois que nous étions dans cette situation (face à ces données) nous avons essayé une action particulière (produit telle sortie) et que cela a fonctionné (que cela était correct), alors nous réessayons, ou alors cela n’a pas fonctionné et nous essayons quelque chose d’autre. »[16] C’est pourquoi les meilleurs « apprenants » ne sont pas ceux qui sont déjà entièrement câblés par un programmeur pour l’exécution d’une tâche mais ceux qui ont un « échafaudage » suffisamment souple pour qu’il puisse se câbler et se recâbler au cours de leur fonctionnement.

Il faut prendre acte ici du « câblage » à la fois comme métaphore neuronale et comme métonymie informatique. En effet, une des grandes lignées de l’algorithmique contemporaine prend racine dans le champ des « réseaux neuronaux » qui a travaillé sans relâche à établir une homologie entre la transmission de bits dans un circuit électronique et le fonctionnement des influx nerveux dans le cerveau, homologie qui permettait d’établir une logique abstraite commune et représentable sous forme d’une diagrammatique visuellement suggestive. Il y aurait énormément à dire sur les origines et l’apport des réseaux neuronaux[17] mais ce qu’il convient de souligner, c’est sa conception réduite de l’intelligence et de l’apprentissage comme activité nerveuse pouvant être modélisée par câblage électrique et schémas logiques. Le renforcement et le conditionnement de l’apprentissage n’y sont rien d’autre que la sur-stimulation relative d’un chemin, parmi d’autres possibles, reliant un ensemble de nœuds neuronaux.[18] Les réseaux neuronaux ne font que renforcer l’association spontanée que l’on retrouve à peu près partout et selon laquelle l’« intelligence » (entendons : apprentissage, adaptation, comportements, habitudes, etc.) est primordialement une affaire cérébrale, donc réductible à une fonction localisable dans le cerveau.

Le continuum machine-cerveau est par ailleurs le fantasme métaphysique permettant de répartir le problème de la dimensionnalité entre les modes algorithmique et humain d’apprentissage, limité chez le second à l’ordre de trois alors que le premier ne connaît a priori aucune limitation définitive de son degré de dimensionnalité. À cet égard, l’algorithmique comportementale n’offre, semble-t-il, rien de moins qu’un supplément perceptif à la perception humaine, ou pour être tout à fait rigoureux : un mode d’exploration perceptif d’une puissance supérieure dont les perceptions doivent être ramenées à un ordre de dimension-trois pour être perçues par un humain. Si la perception humaine égalait celle des machines auto-apprenantes, la première n’aurait sans doute plus besoin des secondes.[19] De manière tout à fait explicite, Marsland déclare que face à notre limitation à trois dimensions, il existe deux solutions possibles : « Réduire le nombre de dimensions (jusqu’à ce que nos simples cerveaux puissent s’occuper du problème) ou utiliser des ordinateurs qui ne savent pas que les problèmes à grandes dimensions sont difficiles et ne s’ennuient pas quand ils regardent des fichiers de données massifs. […] les problèmes liés à nos limitations humaines s’en vont si nous pouvons faire faire le sale boulot aux ordinateurs. »[20]Notons simplement au passage l’embarras suivant : l’humain connaît une limitation qui le contraint à faire faire le « sale boulot » à une machine ; aussi il ne faudrait pas s’étonner si celle-ci s’épuise un jour à force d’être reléguée aux tâches ennuyeuses et « prolétarisantes ». À n’attribuer que des tâches ingrates aux machines, il se peut que celles-ci refusent un jour de reproduire les tâches pour lesquelles elles ont été produites. Le refus potentiel étant ici la réserve de puissance d’un comportement faisant défaut à son asservissement, et non pas l’émanation d’une libre volonté. Comme nous verrons plus en avant, cette mise en défaut du comportement par le comportement peut être appréhendée par le biais du cycle de l’image simondonien.

 

« La malédiction de la dimensionnalité »

Mais revenons au problème. Concrètement, la dimensionnalité de l’algorithme renvoie au nombre de variables (ou de features) qu’il est capable de traiter et de modéliser ; c’est un problème quantitatif auquel la machine est confrontée, et si sa plus grande prouesse est de pouvoir sans cesse faire face à de nouvelles données, son talon d’Achille est de ne plus savoir quoi en faire – son apprentissage s’atrophie devant l’hypertrophie des dimensions. Dans le jargon du machine-learning, il existe une expression pour ce phénomène : the curse of dimensionality[21](malédiction de la dimensionnalité). Cette formule envoûtante suggère qu’il devient exponentiellement compliqué de généraliser à partir d’une quantité de variables grandissante, étant donné qu’un jeu de données d’entraînement fixe (la part de données qui est utilisée à titre d’exemples pour générer/apprendre des classes de données) recouvrira une fraction décroissante de l’espace d’entrées (l’ensemble des données que le modèle est censé représenter). Pour conserver sa disposition à généraliser et classer les occurrences en fonction des variables, il faudra que l’algorithme se nourrisse de toujours plus de données. Sa malédiction est de grandir ou périr. Dans l’urgence de l’existence en milieu numérique, l’algorithme n’a généralement pas le temps d’être plus intelligent et doit se satisfaire d’une transfusion de données vitales de son milieu.[22]

De manière corrélative, l’apprentissage des algorithmes est marqué par une certaine « naïveté » qui préfère suivre une assomption forte mais fausse (pensons au classificateur linéaire « Bayes naïf » par exemple[23]) plutôt que sa contrepartie faible mais plus représentative, car le deuxième risque toujours, à défaut de données suffisantes, de tomber dans l’overfitting, caractérisé parle fait qu’un modèle corresponde trop parfaitement à une certaine catégorie de données en étant complètement inadéquate pour les autres – en somme, apprendre à ne faire qu’une seule chose.[24]

Si l’on s’attarde sur les modèles bayésiens, on décèle plus clairement la structure itérative et mimétique des comportements algorithmiques. Dans le cas d’un projet cherchant à mettre en place un système auto-apprenant pouvant modéliser les déplacements et interactions d’individus humains à partir d’une vision computationnelle en temps-réel de vidéos de surveillance, le groupe Vision and Modeling du MIT Media Laboratory se base sur une approche bayésienne afin de créer des « agents comportementaux synthétiques » capables de « mimer », dans un « environnent virtuel », les comportements humains.[25] La nature récursive des modèles bayésiens offre « un cadre mathématique pour combiner les observations (bottom-up) avec des antécédents comportementaux complexes (top-down) afin de fournir des attentes qui seront réinjectées dans le système perceptif. »[26]

En d’autres termes, la perception de l’algorithme n’est pas donnée une fois pour toutes, elle se réactualise sans cesse en fonction des attentes générées par les prises de vues antérieures et les nouvelles prises qu’y s’en distinguent. Il est tout à fait symptomatique du paradigme oculaire que l’instrumentation algorithmique de la perception se déploie avant tout à travers des applications de surveillance vidéo et de détection d’anomalies. D’ailleurs la complémentarité du problème de la dimensionnalité, dans ses formes algorithmique et humaine, repose sur une équivalence posée entre les « variables » et les « dimensions », comme s’il suffisait de multiplier le nombre d’axes d’un graphe pour complexifier la perception. Le pattern recognition grâce auquel l’algorithme est censé apprendre à reconnaître les interactions humaines en les mimant suppose qu’il puisse décoller des occurrences rares et anomales – au sens d’une irrégularité perceptive et non pas de ce qui contrevient à la norme –d’un fond de normalité. Le comportement nouveau est alors celui qui ne correspond pas aux attentes du schème perceptif. Et, à en croire les auteurs du projet, « L’utilisation d’agents synthétiques pour générer des modèles robustes de comportements à partir d’un nombre très limité d’exemples réels de comportements est d’une importance particulière dans les tâches de surveillance visuelle où, typiquement, les comportements les plus intéressants sont aussi les plus rares. »[27] Dans le cas présent, les comportements des agents synthétiques sont en réalité un processus combinatoire entre des unités comportementales de différents niveaux de complexité hiérarchiques (se déplacer ; s’approcher ; rencontrer ; suivre ; rencontrer et suivre ; s’approcher et se déplacer ensemble ; etc.)[28]. Pour ce faire, tout un ensemble de variables (vitesse, direction, degré d’alignement, etc.) sont mesurées chez deux agents et corrélées les unes par rapport aux autres, permettant ainsi de générer des vecteurs de variables manipulables sous forme matricielle et finalement représentables graphiquement.

Il en ressort que ce qui pose problème au comportement humain ne pose pas problème au comportement algorithmique, et inversement. Ou pour le dire autrement, les points de rencontres entre ces deux modes comportementaux sont des zones de subduction : la représentation graphique et humainement visualisable que l’algorithme produit à sa sortie n’est pas son comportement mais seulement un rendu de celui-ci ; de même la perception du comportement humain par l’algorithme est un filtrage sélectif de celui-ci, filtrage qui traduit l’orientation de son propre comportement normatif au sein de son milieu d’activité, en l’occurrence l’ensemble de dispositifs et de dispositions qui participent à la récolte, au traitement et à la modélisation des données de surveillance vidéo.

 

Vers une autre image du comportement

Aussi, pour rendre compte de l’inventivité à l’œuvre dans la communication entre deux modes d’existence, il nous faut déstabiliser la prévalence du paradigme visuel pour faire droit à la pluralité perceptive et a fortiori comportementale. Pour ce faire, nous nous proposons d’ouvrir sur une perspective simondonienne de l’invention et de l’imagination afin de prendre le départ, pour de bon cette fois, de ce vieux pays aux mille yeux. Mais gardons à l’esprit les contours de ses paysages, la forme de ses topologies alors qu’ils s’éloignent de notre regard : c’était un morne open-space où chaque expérience s’isolait à l’abri des murs amovibles, où les « comportements » s’observaient dans le calme du protocole et où la norme était la mesure de la répétition. À présent, nous allons gravir les pentes escarpées d’un paysage tout autre.

L’image chez Simondon n’est ni une unité sémiotique spatio-temporellement délimitée, ni la représentation mentale ou spirituelle de celle-ci ; adieu donc le (faux) problème de l’adéquation entre l’objet et sa représentation. Il n’y a pas d’image qui ne soit toujours aussi activité d’imagination, ou processus imaginal, s’informant à partir des schèmes psychomoteurs de l’individu en interaction avec son milieu. Le cycle de l’image se compose ainsi de trois phases ontogénétiques : l’anticipation, l’expérience, la systématisation. Mais il n’est pourtant pas fermé sur lui-même et il est amené à s’actualiser en permanence, c’est pourquoi le passage entre chacune des phases est de l’ordre d’une invention.[29] Ainsi, avant d’être une image à charge psychique ou collective, l’image doit d’abord répondre au fait que la « motricité précède la sensorialité, comme anticipation à long terme des conduites »[30]. Pour le dire autrement, l’individu dispose d’un ensemble de normes motrices qui structurent son activité spontanée – non encore orientée – et l’organisation interne de ses anticipations ; ces normes n’étant rien d’autre qu’une « représentation analogique du milieu ».[31] Dans un geste qui fait écho à sa théorie de l’individuation, Simondon distingue les images a priori, a praesenti et a posteriori. Les premières renvoient à la précédence de la motricité sur la sensorialité et à l’image existant avant toute expérience objectale. Les secondes émergent dans la relation directe au milieu et les anticipations à court terme que l’individu entretient avec son milieu ; l’image, dans ce dernier cas, « fournit l’activité locale qui est un mode d’accueil des informations incidentes. »[32] Viennent enfin les images qui sont l’effet d’une résonance affectivo-émotive qui, sur base des schèmes moteurs et des perceptions, permet de faire perdurer les anticipations de ces deux premières au-delà leur présence spatiotemporelle immédiate : « l’image est alors le point remarquable qui se conserve quand la situation n’existe plus. »[33]

L’important est, dès lors, de saisir l’image dans son mouvement ontogénétique, dans la manière qu’elle a de se replier sur elle-même à travers des phases d’anticipation, d’expérience et de systématisation itératives s’informant mutuellement, et en résonance avec un milieu donné. Les généralisations expérientielles qui émergent au niveau de la systématisation se sédimentent dans les anticipations futures. Une autre manière de dire que l’on n’intervient jamais sur un comportement en cours, mais uniquement sur les conditions de réalisation de comportements futurs. Une autre manière de dire qu’il n’y a pas de « contenu » de l’image autre que l’activité d’imagination d’un mode d’existence singulier, l’image n’étant rien d’autre que l’ensemble des schèmes perceptivo-moteurs qui orientent et structurent l’action d’un individu. L’image de l’algorithme n’est pas une représentation seconde de son milieu, elle est la transduction analogique de son milieu sous forme d’un comportement.

Si analogie perceptive entre l’algorithme et l’humain il y a, elle doit être comprise en son sens le plus rigoureux : il peut exister, sous certaines conditions, une transduction[34] des schèmes d’un mode d’existence à un autre[35]. Notons qu’en algorithmique, la « transduction » est une forme d’inférence qui passe des cas d’entraînement vers des cas tests, sans prétendre à une généralisation inductive dépassant l’actualité d’un problème spécifique. En d’autres termes, la transduction algorithmique s’intéresse à résoudre des problèmes de proche en proche, et non d’en proposer une solution générique ; car il n’existe de problème générique qu’au niveau formel et non au niveau de la calculabilité. La résolution de problèmes est un mouvement transductif qui se propage de proche en proche, c’est dire qu’il n’existe pas de solution qui n’engendre à son tour de nouveaux problèmes. En adoptant le principe simondonien stipulant que la transduction opère une pluralisation de la logique[36] (et non pas une logique du pluriel), on rejoint l’inspiration canguilhemienne selon laquelle il n’y a pas de conditionnement unilatéral ou univoque, mais plutôt une réceptivité, une sensibilité, une affectivité élective se manifestant lors de la rencontre problématique et en tension entre deux normativités. En rappelant les recherches de von Uexküll, Canguilhem insiste sur le fait que, pour être efficace, une excitation physique dans le milieu de comportement doit être significative, remarquable ; elle doit orienter l’attention de l’organisme mais cette orientation dépend déjà des anticipations sédimentées du comportement en question.[37] Le comportement est alors le problème qu’un mode d’existence se donne à résoudre dans un milieu peuplé d’autres modes d’existence. La communication ne se fait pas suivant une logique de transfert de messages, de codes ou d’informations, mais selon un transfert analogique de schèmes, ce qui suppose qu’il y ait une incommensurabilité inhérente à tout acte de communication ; un mode d’existence fait tenir ensemble – à sa manière, avec sa logique – des ordres de grandeurs disparates, sans que ces derniers n’épuisent leurs potentialités dans la mise en commun, la communion, opérée. Avec la perspective incomplète mais multiple que nous offrent les aspérités de ce paysage, on découvre une proximité avec Frédéric Lordon, quand il écrit : « l’idéation et l’imagination sont ainsi dans l’orbite immédiate de la vie affective, et la sphère des passions n’est pas qu’un monde d’« émotions » brutes, infralinguistiques ou antéprédicatives : elle est le biotope où s’engendrent littéralement, et à toutes échelles, les visions et les valorisations du monde. »[38]

La transduction d’un mode d’existence à un autre nous informe à nouveaux frais sur ce qu’est un processus de normation[39]. À la lumière du cycle de l’image simondonien, ce processus s’apparente alors à un alignement d’une disparité de schèmes sur une même échelle de valeur, disparité à laquelle un comportement prête une unité en devenir. Loin de voir le comportement comme la triste répétition d’actes pro-grammés, c’est-à-dire entièrement déterminés à l’avance, il faudrait davantage y voir la surprenante inventivité d’un problème sans cesse reformulé. À ce titre, il nous semble que, plutôt que de chercher à découvrir le soubassement algorithmique de nos comportements – ce sans quoi le machine-learning ne pourrait se targuer de « représenter » nos comportements en les mimant et les répétant machinalement – on ferait mieux de penser la manière dont des comportements algorithmiques (d’un côté) communiquent avec des comportements humains (de l’autre). Assurément, leurs phases d’anticipation, d’expérience et de systématisation respectives ne peuvent être les mêmes, dans la mesure où ces comportements ne partagent pas un milieu tout à fait identique ; l’un et l’autre se donnent leur milieu en fonction des problèmes qu’ils ont à résoudre, mais chacun structure indirectement les conditions futures à partir desquelles l’autre mode d’existence va réaliser son comportement. Nous n’avons pas voulu opposer absolument l’algorithmique comportementale à l’algorithmique mécanique en les distinguant absolument : la première supposera toujours la deuxième dans sa structuration, mais la deuxième invente des problèmes qui transforment l’activité normative de la première avec laquelle elle est en partie incommensurable. Dans le cas du machine-learning, il ne suffit plus de se demander comment l’algorithme est programmé par un programmeur pour rendre compte de sa normativité ; il faut accorder à celle-ci l’autonomie suffisante, quoique marginale, pour comprendre en quoi elle « comporte » des dispositions qui improvisent de manière réglée.[40]

Arrivés à ce point de suspension dans la problématisation du comportement algorithmique, cherchons nos appuis : pouvons-nous admettre qu’une machine ait des comportements au même titre qu’un être vivant ? Oui, à condition de partir d’une conception suffisamment générique du comportement pour qu’elle puisse prendre la texture du mode d’existence dont il est question. Et si nous partons du principe qu’un comportement n’est pas la répétition d’une même réponse face à une même question (stimulus), alors force est d’admettre que les machines auto-apprenantes ont bel et bien un comportement, dans la mesure où celui-ci a été défini comme la capacité de manifester une certaine forme d’inventivité propre à une activité normative. Mais il ne faut pas prendre peur. C’est une bêtise analytique qui mène aux pires prises en charge et usages humains des algorithmes que de croire qu’un comportement algorithmique communique directement avec celui d’un vivant – ou inversement. La technique, et la manière dont elle informe « nos » actions, ne sont jamais qu’une affaire de détours, de médiations et de ruptures. Quand nous recourons à des algorithmes pour résoudre un problème, c’est la nature même du problème qui s’en trouve transformée et les dimensions du collectif qui sont rééchelonnées. À cet égard, la perspective simondonienne nous offre à la fois des outils analytiques et des orientations éthiques pour sortir l’interaction humain-algorithme du carcan adéquationniste ou représentationnel de l’image en donnant à celle-ci une puissance transductive : l’image de l’algorithme n’est pas (uniquement) ce qu’il nous donne à voir à sa sortie, mais sa manière de faire communiquer et tenir ensemble des ordres de grandeurs différents et disparates. Un comportement n’est jamais seulement ce que l’on voit, mais bien plutôt ce que l’on ne voit pas im-médiatement.

 

[1]    DOWEK, Gilles, Les métamorphoses du calcul, Poche-Le Pommier !, Paris, 2011.

 

[2]    Pour un survol historique et culturel des différentes pratiques et savoirs algorithmiques, voire notamment : CHABERT, Jean-Luc, (éd.), Histoire d’algorithmes, du caillou à la puce, Éditions Belin, Paris, 2010.

 

[3]    DOWEK, op. cit., p. 123-124.

 

[4]    MACKENZIE, Donald, « Computing and the Cultures of Proving », Philosophical Transactions : Mathematical, Physical and Engineering Sciences, vol. 363, no1835, 2005, p. 2335-2350.

 

[5]    Rappelons que le temps d’exécution, ainsi que l’espace mémoire, est la ressource la plus souvent mesurée et comparée dans l’analyse de la complexité d’un algorithme ou d’une classe de problèmes.

 

[6]    DOWEK, op. cit., p. 93.

 

[7]    DOWEK, op. cit., p. 95.

 

[8]    Bruno BACHIMONT le rappelle très bien : « La manipulation algorithmique ou calculatoire n’est possible que si elle porte sur des éléments discrets dépourvus de signification. En effet, comme le montre le programme de Hilbert, le formel se définit par l’expulsion de la signification et du sens : le calcul n’est possible que parce qu’il ne tient pas compte du sens, mais seulement de la catégorie syntaxique des symboles matériels manipulés. » « De l’hypertexte à l’hypotexte : les parcours de la mémoire documentaire », « De l’hypertexte à l’hypotexte : les parcours de la mémoire documentaire », Technologies, Idéologies, Pratiques, (Mémoire de la technique et techniques de la mémoire, sous la direction de Charles Lenay et Véronique Havelange), p. 195-225, 1999, p. 5.

 

[9]    BACHIMONT, Bruno, « Signes formels et computation numérique : entre intuition et formalisme », www.utc.fr/~bachimon/Publications_attachments/Bachimont.pdf, 15/01/2013

 

[10]   Précisons d’emblée que la conception du comportement qui nous informe nous amène au plus loin du « comportementalisme », de la psychologie expérimentale, etc. tout en refusant d’abandonner le terme à ceux qui prétendent en épuiser le sens. Nous y reviendrons, mais soulignons déjà la polysémie du terme « comporter » : être muni d’une caractéristique ; porter avec ; se comporter, avoir une manière de se porter avec les autres, etc.

 

[11]   DOMINGOS, Pedro, « A Few Useful Things to Know about Machine Learning », Communications of the ACM, vol. 55, no10, 2012, p. 78-87. [notre traduction]

 

[12]   COMBES, Muriel, La vie inséparée. Vie et sujet au temps de la biopolitique, éditions Dittmar, Paris, 2011, p. 127.

 

[13]   Voir notamment le magnifique travail de Simon SCHAFFER « Babbage’s Intelligence : Calculating Engines and the Factory System », Critical Inquiry, vol. 21, no1, 1994, p. 203-227.

 

[14]   CANGUILHEM, op. cit., p 181.

 

[15]   DOMINGOS, op. cit. [notre traduction]

 

[16]   MARSLAND, Stephen, Machine Learning, an algorithmic approach, Taylor and Francis, 2015, Boca Raton, p. 4.

 

[17]   Voir notamment le livre de HALPERN, Orit, Beautiful Data. A History of Vision and Reason since 1945, Duke University Press, Durham, 2014. Sur les origines cybernétiques de ceux-ci et leurs liens avec la question du comportement et l’apprentissage voir, entre autres : WIENER, Norbert, The Human Use of Human Beings. Cybernetics and Society, Da Capo Press, 1988 ; MINSKY, Marvin and PAPERT, Seymour, Perceptrons, MIT Press, 1988.

 

[18]   Pour des compléments techniques et théoriques voir le chap. 3 « Neurons, Neural Networks, and Linear Discriminants » de MARSLAND, op. cit.

 

[19]   DOMINGOS, op. cit.: « On a même pu dire que si les gens pouvaient voir en hautes dimensions, le machine learning ne serait pas nécessaire. »

 

[20]   MARSLAND, op. cit., p. 2.

 

[21]   MARSLAND, ibid., p. 17. Voir aussi DOMINGOS, op. cit., ; FLACH, Peter, Machine Learning, Cambridge University Press, New York, 2012; ou encore WITTEN I. and FRANK E., Data Mining : Pratical Machine Learning Tools and Techniques, Morgan Kaufmann Publishers, San Francisco, 2005.

 

[22]   DOMINGOS, op. cit., « More data beats a cleverer algorithm. »

 

[23]   Les modèles bayésiens s’inspirent du théorème de Bayes en probabilités conditionnelles qui permet d’actualiser les estimations a priori d’une probabilité en fonction de ces observations a posteriori. Un classificateur linéaire Bayes naïf décompose la conjonction multivariée d’un modèle Bayésien en un ensemble de modèles univariés, c’est-à-dire qu’il réduit la complexité des relations à la naïveté de classifications linéaire.

 

[24]   DOMINGOS, ibid.

 

[25]   NURIA, et al. « A Bayesian Computer Vision System for Modeling Human Interactions », p. 13.

 

[26]   NURIA, et al. op. cit. p. 6 [notre traduction].

 

[27]   Ibid., p. 13-14 [notre traduction].

 

[28]   Ibid., p. 15.

 

[29]   SIMONDON, Gilbert, Imagination et Invention, Les Éditions de la Transparence, Chatou, 2008, p. 19.

 

[30]   SIMONDON, ibid., p. 20.

 

[31]   SIMONDON, ibid., p. 30.

 

[32]   SIMONDON, ibid., p. 20.

 

[33]   SIMONDON, ibid., p. 20.

 

[34]   Référons-nous à la définition célèbre qu’en donne Simondon : « une opération, physique, biologique, mentale, sociale, par laquelle une activité se propage de proche en proche à l’intérieur d’un domaine, en fondant cette propagation sur une structuration du domaine opérée de place en place : chaque région de structure constituée sert à la région suivante de principe de constitution, si bien qu’une modification s’étend ainsi progressivement en même temps que cette opération structurante. » SIMONDON, Gilbert, L’individuation à la lumière des notions de forme et d’information, Éditions Million, Grenoble, 2013, p. 32.

 

[35]   Nous aimerions signaler notre découverte, en relisant ces pages, d’un ouvrage qui nous semble riche en promesses et implications : MACKENZIE, Adrian, Transductions, Bodies and Machines at Speed, Continuum, New York, 2002.

 

[36]   SIMONDON, ibid., p. 36.

 

[37]   CANGUILHEM, op. cit., p. 185.

 

[38]   LORDON, Frédéric, La société des affects, Éditions du Seuil, Paris, 2013, p. 87.

 

[39]   Voir MACHERREY, Pierre, Le sujet des normes, Éditions Amsterdam, Paris, 2014.

 

[40]   Nous pensons bien sûr à la théorie de l’habitus de Pierre Bourdieu.