Dans le numéro de septembre 2013 de la revue Nature, un groupe de physiciens de l’université de Miami a publié un article intitulé « Augmentation abrupte d’une nouvelle écologie machinique dépassant le temps de réponse humain »[1]. Ils y identifiaient une transition vers une « nouvelle phase entièrement machinisée »[2]des marchés financiers, coïncidant avec l’introduction du trading à haute vitesse sur les marchés boursiers en 2006. Ils y montraient que les vitesses inférieures à la milliseconde ainsi que les quantités d’interactions d’algorithme à algorithme dépassaient largement les capacités des interactions humaines. En analysant le détail des données collectées à l’échelle de la milliseconde au cœur des marchés financiers, ils découvraient une grande quantité de micro-événements anormaux causés par ces algorithmes, dont la prolifération leur semblait devoir être corrélée avec l’effondrement financier de 2008.
Dans ce nouvel environnement boursier, des agents algorithmiques prennent des décisions beaucoup plus rapidement que les humains ne peuvent le comprendre. Alors qu’un humain a besoin d’une bonne seconde pour reconnaître et réagir à un danger potentiel, les algorithmes (ou « bots ») peuvent prendre une décision en quelques millisecondes. Ces algorithmes constituent « une écologie complexe d’agents hautement spécialisés, hautement diversifiés, dotés d’une forte capacité d’interaction »[3], qui opèrent à la limite de l’équilibre, bien loin de toute compréhension et de tout contrôle humains.
Cet article prendra cette écologie digitale des algorithmes du trading à haute fréquence comme son point de départ. Mon texte ne traitera toutefois pas spécifiquement de l’écologie financière, mais visera plus largement à une discussion critique de la cognition automatique à l’âge du capitalisme algorithmique. Si les transactions financières donnent l’exemple d’une automatisation numérique qui devient toujours plus autonome envers les capacités humaines de compréhension, ce système est en passe de devenir une seconde nature. Il semble donc urgent de mettre en question la relation que peut entretenir la pensée critique envers de telles écologies numériques. La critique de la raison instrumentale, telle que l’a articulée la théorie critique inspirée de Francfort, peut-elle encore s’appuyer sur une distinction entre pensée critique et automatisation ? Peut-on véritablement affirmer que l’automatisation algorithmique constitue toujours-déjà une réduction de la pensée critique ?
On ne saurait répondre à de telles questions sans faire face à un dilemme apparent : et la pensée philosophique et le numérique reposent sur des principes d’indétermination et d’incertitude, tout en incluant ces principes au cœur de leur théorie de la complexité. Tous deux, dès lors, se trouvent à la fois présenter un défi et une définition en direction de l’ordre néolibéral – ce qui n’est pas le moindre de leurs paradoxes. Pour analyser ce paradoxe, je me tournerai vers la notion d’incomputabilité théorisée par l’informaticien Gregory Chaitin, dont la contribution principale au champ de recherche de la théorie algorithmique est la découverte du nombre incomputable Omega. Ce nombre possède la qualité remarquable d’être définissable sans être pour autant computable. En d’autres termes, Omega définit un état de computation qui est à la fois discret et infini, occupant l’espace qui sépare le 0 du 1. D’un point de vue philosophique, la découverte d’Omega met au jour un processus de détermination de l’indéterminé, processus qui n’implique pas une structure de raisonnement a priori, mais le traitement dynamique d’infinités dont les résultats ne sont pas inclus dans les prémisses logiques du système.
J’aimerais suggérer que le rôle central joué par l’incomputable au sein de la théorie de l’information remet en question non seulement la critique philosophique de la rationalisation technique, mais également les discussions tournant autour de l’instrumentalisation de la raison. Je soutiendrai qu’il ne suffit plus de s’aligner sur une critique de la technoscience dénonçant le fait que la computation réduise la pensée humaine à de simples opérations mécaniques. Au lieu de cela, le paradoxe articulant la philosophie réaliste au réalisme du technocapital peut être interprété comme le symptôme d’une transformation irréversible dans l’histoire de la pensée critique, transformation au cours de laquelle la fonction incomputable de la raison a pénétré dans l’infrastructure automatisée de la cognition.
Les algorithmes du capital cognitif et affectif
Le capital est réputé avoir pénétré tous les aspects de nos vies personnelles et sociales. Avant de nous pencher sur la place de l’incomputable dans l’automatisation algorithmique, il importe de rappeler qu’avec la phase technocapitaliste dite de la « subsomption réelle du capital », l’automatisation numérique est de plus en plus coextensive avec le capital cognitif et affectif. La logique de l’automatisation numérique a pénétré les sphères des affects et des sentiments, les compétences linguistiques, les modes de coopération, les formes de connaissances, aussi bien que les manifestations du désir. Plus radicalement encore, la pensée humaine elle-même est censée être devenue une fonction du capital. Les analyses contemporaines de cette nouvelle condition, menées en termes de « capital social », de « capital culturel » ou de « capital humain », nous expliquent que la connaissance, l’intelligence, les croyances et les désirs se réduisent à leur valeur instrumentale et à leur capacité à générer de la plus-value. Dans ce régime automatisé des affects et des savoirs, les capacités se mesurent et se quantifient au sein d’un champ défini en termes d’argent ou d’information. En collectant des données et en quantifiant des comportements, des attitudes et des croyances, l’univers néolibéral des produits dérivés de la finance et des big data fournit un mode de calcul destiné à juger des actions humaines, ainsi qu’un mécanisme destiné à inciter et à diriger ces actions.
Paradoxalement, au moment même où le « travail immatériel » prend le pas sur la production matérielle et où le marketing se préoccupe de plus en plus des biens affectifs (comme les états d’esprits, les styles de vie et les « atmosphères »), le réalisme capitaliste paraît s’exprimer sans plus rencontrer aucune contrainte, guidé par les découvertes de la psychologie cognitive et de la philosophie de l’esprit[4]. On retrouve au cœur de ces perspectives la plasticité des structures neuronales ainsi que la capacité d’étendre nos fonctions cognitives grâce à des machines régies par des algorithmes – depuis la perception jusqu’aux compétences relevant du choix et du jugement. On peut affirmer sans difficulté que, de nos jours, le cerveau social consiste en une écologie machinique d’agents algorithmiques.
Bernard Stiegler invite à considérer le technocapital d’un point de vue quelque peu différent. Selon lui, penser et sentir constituent de nouveaux moteurs de profits qui se trouvent réprimés ou capturés par le capital, qui les transforme en de simples fonctions cognitives et sensorielles[5]. En d’autres termes, le technocapital apparaît comme ce qui dénie le désir et la connaissance, la raison et la sensation, en réduisant ces potentialités à de simples probabilités déterminées par le langage binaire de oui et de non, de 0 et de 1. Poussant la critique plus loin encore, Maurizio Lazzarato a affirmé qu’une critique du technocapital ne saurait se concentrer ni sur la capitalisation de la cognition, ni sur son automatisation. Dans La fabrique de l’homme endetté, il soutient que la connaissance ne détient aucune position hégémonique sur le cycle de la valeur, parce que la connaissance (et donc la pensée) est assujettie aux ordres du capital financier[6]. La forme néolibérale du capital, dans sa phase actuelle de subsomption réelle, correspond ici à la production d’une nouvelle condition, celle de la dette généralisée. Cette forme de gouvernance néolibérale s’est insinuée au sein de toutes les classes sociales, y compris celles qui ne possèdent rien du tout. Le nouveau rapport de pouvoir prévalant aujourd’hui est donc celui qui unit le débiteur au créditeur. La dette est une technologie de gouvernement soutenue par les divers appareils automatiques de mesure et d’évaluation (taux d’endettement, rapport de crédit, bilan financier, bases de données, etc.). Lazzarato analyse ce régime axiomatique en termes de logique sémiotique, dont le paradigme scientifique central et les applications techniques sont d’emblée destinées à capturer, par des effets de quantification de valeurs, nos potentiels esthétiques primaires.
Dans cette perspective, l’automatisation est la logique sémiotique par excellence, celle qui ne se contente pas d’investir le travail dans ses capacités cognitives et affectives, mais qui devient une forme de gouvernementalité, opérant algorithmiquement pour réduire et soumettre toute forme d’existence à l’emprise générale de l’endettement. Cette forme algorithmique de gouvernabilité donne également lieu à une financiarisation diffuse des potentialités, à travers laquelle la vie esthétique est constamment quantifiée et traduite en scénarios prédictibles.
Brian Massumi a également relevé la nature écologiquement diffuse de cette nouvelle forme de gouvernementalité algorithmique, qu’il décrit pour sa part en termes de préemption, à savoir comme un mode de calcul de tendances potentielles plutôt que de possibilités actuellement existantes[7]. Le calcul des potentialités relevant de ce type de dynamiques n’est plus basé sur des données passées déjà observées. Il vise au contraire à calculer l’inconnu en tant qu’espace relationnel, en mesurant l’intervalle séparant une donnée existante d’une autre donnée existante. Cette forme de calcul préemptif transforme le point limite de cette opération mathématique – les infinis – en source de capitalisation.
La leçon suivante semble émerger de ce qui précède : au contraire de la logique de la subsomption formelle, qui correspond à l’application de règles invariables dont la linéarité visait à formater le social selon des idées pré-ordonnées, la logique de la subsomption réelle coïncide avec le paradigme computationnel interactif. Ce paradigme est basé sur les capacités de réponses apprenantes, ouvertes et adaptatives, qui définissent les interactions humain-machine aussi bien que les systèmes interactifs diffus et décentralisés. Avec cette extension de la quantification vers l’indétermination des environnements – et donc vers la contingence – une transformation intrinsèque de la logique de calcul s’est produite. En réalité, le développement de cette approche interactive a joué un rôle crucial dans la forme de subsomption réelle devenue actuellement dominante.
D’un point de vue historique, les algorithmes interactifs ont été inventés pour contourner les contraintes algorithmiques de la machine de Turing. Selon son concept, cette machine était incapable de prendre en compte la complexité du monde empirique – complexité qui, en termes philosophiques, possède sa propre logique non-représentationnelle. Dans ce domaine, l’avancée de la subsomption réelle ne peut être séparée de l’émergence d’une forme automatique de l’automatisation, caractéristique du moment de développement historique des sciences informatiques issues de la modélisation algorithmique de Turing. Ce dernier concevait des mécanismes basés sur des instructions a priori qui résonnaient fortement avec la définition du machinisme proposée par la cybernétique de première génération [first-order cybernetics], en ce qu’ils reposaient sur des systèmes de boucles récursives opérant en circuits fermés. Aujourd’hui, la combinaison d’inputs environnementaux et d’instructions a posteriori proposée par le paradigme interactif a ouvert une cybernétique de deuxième génération [second-order cybernetics], caractérisée par les mécanismes de boucles récursives ouvertes. Le but de ce nouveau type d’interactions dynamiques est d’inclure la variation et la nouveauté dans l’automatisation, de façon à élargir l’horizon du calcul et à intégrer des facteurs qualitatifs comme variables externes au sein même des mécanismes de computation.
Contrairement à la critique formulée par Maurizio Lazzarato, il semble toutefois important de ne pas s’en tenir à une vision générale de l’automatisation, qui en ferait une réduction des qualités existentielles inhérente au technocapitalisme. Le défi est plutôt de prendre la mesure de la transformation intrinsèque du mode automatisé de la gouvernementalité néolibérale, et de se confronter sérieusement à la question de la technique. Toutefois, au lieu de partir du principe que la technique impose toujours un cadre formel statique délimité par sa logique binaire, je suggère qu’il y a une dynamique interne au système de calcul. Si tel est le cas, il faut alors réellement se poser la question spéculative qui, selon Isabelle Stengers, est centrale dans la méthode scientifique[8] : que penser si l’automatisation montrait qu’il y a déjà une relation dynamique intrinsèque aux processus de computation, entre l’input des données et les instructions algorithmiques, impliquant une élaboration non-linéaire des données ? Que penser si cette dynamique ne se laissait pas expliquer en termes d’utilisation a posteriori, résultant d’usages sociaux ou d’opérations mentales ?
Le paradigme interactif concerne la capacité des algorithmes à répondre et à s’adapter à des inputs extérieurs. Comme Deleuze l’avait annoncé[9], un système interactif d’apprentissage et d’adaptation continue est déjà au cœur de la logique de gouvernance animée par un réagencement constant de variabilités. La centralité du capitalisme dans nos sociétés force désormais l’axiomatique à s’ouvrir à des outputs externes, constituant un environnement d’agents à travers lesquels la logique de gouvernance du capital correspond de plus en plus étroitement aux plus petits investissements du socius et, en fin de compte, aux plus fines variations de la vie. La question de l’indécidable devient de première importance, parce qu’elle définit une vision immanente (et non transcendante) du capital, comme Deleuze et Guattari l’avaient rappelé[10]. Tel est en effet le cas, dès lors que l’extension du capital vers l’ensemble de la vie exige de son appareil de capture qu’il soit ouvert aux contingences, aux variations et au changement imprévu.
C’est ici que le pouvoir organisationnel de la computation exige d’être analysé de façon plus fine. Cette analyse est nécessaire si l’on veut pouvoir clarifier la transformation observée au sein même de l’automatisation, du fait de la réorganisation du capital de la subsomption formelle vers la subsomption réelle. L’automatisation interactive du cognitif et de l’affectif demande à être reconsidérée de fond en comble. Si l’on s’en tient à la critique traditionnelle du capital cognitif ou à la dénonciation de la gouvernance basée sur l’endettement généralisé, on risque de rater ce qui peut être considéré comme le processus le plus radical d’artificialisation de l’intelligence jamais observé au fil de l’histoire humaine, celui qui implique la conversion des finalités organiques en moyens techniques – conversion dont nous commençons à peine à entrevoir les conséquences.
Mes réflexions n’en sont encore qu’à un stade embryonnaire, mais j’aimerais dès maintenant explorer la possibilité de considérer l’automatisation algorithmique comme annonçant l’avènement d’une seconde nature, au sein de laquelle un mode de pensée impersonnel et non-finalisé tend à supplanter la finalité téléologique de la raison, telle que Kant l’a articulée en termes de maximes et de motivations, c’est-à-dire de raison implicite derrière toute action, pour donner substance à la différence entre l’entendement et la raison. Ce qui est plus important, c’est que mon hypothèse remet en question la théorie selon laquelle il y aurait une relation mutuelle ou une proposition indécidable entre la philosophie et la technologie, de même qu’entre la pensée et le capital.
Mon hypothèse va à l’encontre de l’idée commune voulant que, face à un techno-capitalisme de plus en plus dynamique, la pensée et la philosophie soient appelées à trouver refuge dans l’intuition intellectuelle et la pensée affective, comme si celles-ci constituaient des enclaves protégées d’incertitude et de pure singularité. J’aimerais au contraire suggérer la possibilité de voir l’automatisation algorithmique, en tant que pensée basée sur des règles, être indifférente à ces qualités trop humaines, tout en pouvant les envelopper sans jamais représenter une pensée philosophique ni critique. Ma proposition est donc de saluer l’émergence d’un mode de pensée algorithmique qui ne saurait être contenu au sein d’une finalité téléologique de la raison – finalité téléologique qui caractérise à la fois le capitalisme et la critique du technocapitalisme.
L’expérience de Turing et le nombre Omega
Comme on le sait, l’automatisation algorithmique implique d’analyser les processus continus en composants discrets, dont les fonctions peuvent être constamment réitérées sans erreur. En d’autres termes, l’automatisation implique que les conditions initiales peuvent être reproduites à l’infini. Le type d’automatisation qui nous intéresse ici est né avec la machine de Turing : un mécanisme absolu d’itération basé sur des procédures de calcul pas à pas. Rien n’est plus opposé à la pensée pure – ou à « l’être du sensible », comme l’appelait Deleuze[11] – que cette machine de calcul universel basée sur la discrétisation des éléments. Il est indéniable que l’architecture décrite par Turing, faite d’unités pré-arrangées qui peuvent se substituer les unes aux autres de manière interchangeable le long de séquences, est en effet à l’opposé complet d’une pensée ontogénétique évoluant à travers un continuum différentiel, au fil de rencontres intensives et d’affects.
Et pourtant, depuis les années 1960, la nature de l’automatisation a connu des transformations dramatiques, au fil du développement de nos capacités computationnelles à stocker et à traiter des données. Les machines antérieures étaient étroitement limitées par la quantité de données susceptibles d’être traitées par des boucles récursives. L’automatisation algorithmique actuelle est désormais conçue pour analyser et comparer des options, pour élaborer des scénarios et tester des résultats possibles, et pour mobiliser des formes de raisonnement capables d’accomplir des opérations de résolution de problèmes non contenues dans la mémoire préprogrammée de la machine. Par exemple, des systèmes-experts peuvent aujourd’hui tirer des conclusions en mobilisant des techniques de recherche, de reconnaissances de patterns, d’extraction de données sur le web – au point que ce type de systèmes complexes automatisés en est arrivé à investir et dominer notre culture commune, depuis les réseaux globaux de téléphonie mobile jusqu’aux services bancaires personnalisés et au contrôle du trafic aérien.
Malgré de tels développements, toutefois, une bonne partie de nos débats sur l’automatisation algorithmique reste fixée sur un imaginaire à la Turing, fait de machines universelles de computation discrète de première génération. Cet imaginaire nous baigne dans l’idée que l’automatisation algorithmique ne serait qu’un exemple parmi d’autres du rêve de Laplace, peignant un univers répondant à une causalité étroitement déterministe[12]. Au sein de la théorie informatique, toutefois, les calculs de l’aléatoire ou des infinis ont transformé ce qui apparaissait comme incomputable en de nouvelles formes de probabilités, qui présentent la caractéristique remarquable d’être à la fois discrètes et infinies. Autrement dit, alors que l’automatisation algorithmique a été comprise comme relevant d’une machine universelle de computation discrète à la Turing, le volume croissant de données incomputables (ou aléatoires) généré au sein des computations interactives et diffuses actuellement opérées en ligne est en train de nous révéler que les données infinies et dépourvues de pattern prédéterminé sont en réalité centrales dans les processus de computation. Pour prendre la mesure du rôle nouveau joué par les algorithmes incomputables dans la computation, il est nécessaire de faire un détour par le logicien Kurt Gödel, qui sapa les prétentions de la méthode axiomatique de la raison pure en prouvant l’existence de propositions indécidables au sein de la logique.
En 1931, Gödel formula ses objections au programme méta-mathématique de David Hilbert. Il démontra qu’il ne pouvait pas y avoir de méthode axiomatique complète ni de formule mathématique pure, selon laquelle la réalité des choses pouvait être démontrée vraie ou fausse. Les théorèmes d’incomplétude de Gödel expliquent que certaines propositions sont vraies, même si elles ne peuvent pas être vérifiées par une méthode axiomatique complète. Ces propositions sont donc réputées être finalement indécidables : elles ne peuvent pas être prouvées selon la méthode axiomatique sur laquelle reposent leurs hypothèses. Selon Gödel, le problème de l’incomplétude, issu d’un effort pour démontrer la validité absolue de la raison pure et de sa méthode déductive, aboutit plutôt à affirmer le principe suivant : aucune décision a priori, et donc aucun ensemble fini de règles, ne peuvent être utilisés pour déterminer l’état des choses avant que ces choses ne puissent advenir selon leur développement propre.
Turing buta sur le problème de l’incomplétude de Gödel pendant qu’il essayait de formaliser les concepts d’algorithme et de computation à l’aide de sa fameuse expérience mentale, aujourd’hui connue sous le nom de « machine de Turing ». Plus précisément, la machine de Turing démontre que les problèmes sont computables s’ils peuvent être décidés selon la méthode axiomatique[13]. À l’inverse, les propositions qui ne peuvent être décidées par la méthode axiomatique sont vouées à rester incomputables.
En prouvant que quelques fonctions particulières ne peuvent pas être computées par une telle machine hypothétique, Turing démontra qu’il n’y a pas de méthode de décision ultime du type de celle que Hilbert souhaitait établir. La force de la proposition avancée par Turing tient à ce que sa fameuse machine offrait une formalisation viable d’une procédure mécanique. Au lieu de se contenter de faire mouliner des chiffres, les machines computationnelles de Turing – de même que celles de nos machines numériques contemporaines qui se sont développées à partir d’elles – peuvent résoudre des problèmes, prendre des décisions et accomplir des tâches. La seule exigence en est que ces problèmes, décisions et tâches doivent être formalisés à travers des symboles et un ensemble d’opérations séquentielles discrètes et finies. De ce point de vue, le travail de Turing peut être considéré comme un moment crucial dans la longue série de tentatives faites à travers l’histoire de la pensée visant à la mécanisation de la raison.
Ce qui est plus important, cependant, c’est de comprendre comment les limites de la computation, et donc de la finalité téléologique de la raison – automatisée dans la machine de Turing – ont été transformées au sein des sciences de la computation et de la théorie de l’information. C’est le travail du mathématicien Gregory Chaitin qui est particulièrement symptomatique de cette transformation, en ce qu’il explique ce qui est en jeu dans les limites de la computation et dans le développement d’une forme dynamique d’automatisation[14]. Il est crucial de bien saisir en quoi cette transformation se distingue de la centralité du paradigme interactif dans le technocapitalisme. Comme l’a illustré Brian Massumi, ce paradigme, né de la nécessité d’inclure des contingences environnementales au sein de la computation, fonctionne surtout en anticipant ou en préemptant les réponses possibles. Ce qui est le plus important toutefois, pour ce qui concerne ma proposition de considérer l’automatisation algorithmique comme un mode de pensée, c’est que cette transformation implique la fonction même que les données incomputables jouent au sein de la computation. On ne peut cependant comprendre ce point crucial sans expliquer la théorie de Chaitin de façon un peu plus détaillée.
La théorie de l’information algorithmique élaborée par Gregory Chaitin traite de la computation en termes de probabilités éminemment inconnaissables. Il pose le problème en combinant la question de Turing concernant la limite de la computabilité avec la théorie de l’information de Claude Shannon, qui démontre la capacité productive du bruit et de l’aléatoire au sein des systèmes de communication. Dans chaque processus computationnel, explique-t-il, l’output est toujours supérieur à l’input. Selon Chaitin, quelque chose arrive dans le traitement computationnel des données, quelque chose qui remet en question l’équivalence entre l’input et l’output ainsi que, par voie de conséquence, l’idée même que le traitement conduise toujours à un résultat préprogrammé. Ce quelque chose, selon Chaitin, c’est l’aléatoire algorithmique [algorithmic randomness]. Cette notion implique que l’information ne peut pas être compressée dans un programme plus petit, dans la mesure où se produit, entre l’input et l’output, une transformation entropique des données, qui résulte dans le fait que ces données tendent à accroître leur taille. De ce point de vue, l’output du traitement des données ne correspond pas aux instructions initiales de l’input, et son volume tend en fait à devenir plus grand qu’il ne l’était au début de la computation. La découverte de l’aléatoire algorithmique dans le traitement computationnel a été expliquée par Chaitin en termes d’incomputable, à savoir de quantités croissantes quoiqu’inconnues de données qui caractérisent le traitement basé sur des règles.
Chaitin appelle cet aléatoire algorithmique Omega (le choix de la dernière lettre de l’alphabet grec renvoyant à la probabilité que ce nombre soit infini). Les recherches de Chaitin sur cet incomputable révèlent en fait que l’ordre linéaire des procédures séquentielles (à savoir ce qui constitue le traitement computationnel des 0 et des 1) fait apparaître une tendance entropique à rajouter davantage de données à l’agrégation d’instructions établies au niveau de l’input. Puisque ce traitement inclut inévitablement non seulement une transformation des données existantes en de nouveaux inputs, mais aussi l’addition de nouvelles données en plus de ce qui était déjà préétabli dans la procédure computationnelle, on peut parler d’une dynamique interne à la computation.
De ce point de vue, le traitement computationnel ne se borne pas à garantir le retour des conditions initiales, pas plus qu’il ne se contente d’inclure les changements dérivés du paradigme interactif basé sur les réponses aux outputs. Cela est dû au fait que la conception de l’incomputabilité promue par Chaitin ne correspond plus exactement à la notion de limite de la computation (c’est-à-dire de limite à ce qui est calculable). Au lieu de cela, cette limite, comme l’incomputable lui-même, s’en trouvent transformés : ils s’identifient au fait que, au développement présent du traitement computationnel, s’additionnent de nouvelles parties algorithmiques éminemment inconnaissables. Ces parties sont des séquences algorithmiques qui tendent à devenir plus grandes en volume que les instructions du programme, et qui tendent à prendre le dessus sur elles, transformant ainsi de façon irréversible la finalité préétablie des règles initialement formulées. La façon dont Chaitin réarticule l’incomputable est à la fois frappante et très productive d’un point de vue spéculatif. Ce qui, chez Turing, était conçu comme la limite externe de la computation (c’est-à-dire l’in-computable) se voit désormais internalisé dans l’arrangement séquentiel des algorithmes (l’aléatoire opérant à l’intérieur des procédures algorithmiques).
Comme Chaitin l’admet lui-même, il faut considérer l’aléatoire algorithmique comme une continuation de l’effort mené par Turing pour rendre compte de l’indétermination au sein de la computation. Alors que, pour Turing, il y a des cas où la finalité ne peut pas être atteinte et où la computation (définie comme l’automatisation de la finalité de la raison) s’arrête là où l’incomputable commence, pour Chaitin en revanche, la computation elle-même comporte une marge intérieure d’incomputabilité, dans la mesure où les règles sont toujours accompagnées et infectées par de l’aléatoire. Par conséquent, l’incomputabilité n’est pas simplement en rupture avec la raison : elle est plutôt une raison qui s’est trouvée étendue au-delà de ses limites, pour envelopper le traitement de parties éminemment inconnaissables dépourvues de finalité téléologique. Pour le dire encore autrement, l’automatisation est désormais démarquée par l’incomputable, l’inconditionné de la computation.
Mais le plus important est peut-être ailleurs : ce qui vient d’être dit remet en question la vue commune selon laquelle le traitement computationnel correspond à des calculs conduisant à des résultats préprogrammés et déjà connus. Au lieu de cela, les limites de l’automatisation – à savoir l’incomputable – sont devenues le point de départ d’une dynamique interne à la computation, dynamique qui excède et dépasse le projet d’instrumentalisation de la raison par le technocapital. Mettre les découvertes de Chaitin en rapport avec les positions de la pensée critique et du technocapitalisme révèle encore un autre aspect crucial de notre situation : l’incomputable ne saurait être compris comme simplement opposé à la raison. Autrement dit, il n’est pas l’expression d’un point terminal de la raison et ne peut être expliqué selon la perspective critique qui se réclame de la primauté de la pensée affective.
À en croire Chaitin, l’incomputable démontre les insuffisances de la vision mécaniste de la computation, selon laquelle le chaos et l’aléatoire constitueraient des erreurs au sein de la logique formelle du calcul. Les incomputables ne décrivent nullement la défaillance de l’intelligibilité face au triomphe de l’incalculable, tout au contraire. Ces limites suggèrent bien plus subtilement la possibilité d’une dynamique de l’intelligibilité, définie par les capacités des infinis incomputables ou de l’aléatoire à infecter tout ensemble computable ou discret. Autrement dit, l’aléatoire (ou les variétés infinies d’infinis) ne se trouve pas simplement à l’extérieur de la computation, mais en arrive à apparaître plus radicalement comme sa condition absolue. Et lorsqu’il devient partiellement intelligible dans le symbole algorithmique que Chaitin appelle Omega, l’aléatoire pénètre aussi l’ordre computationnel et provoque une irréversible révision des règles algorithmiques et de leur finalité téléologique. C’est précisément cette nouvelle possibilité de révision indéterminée des règles, impulsée par l’inclusion d’aléatoire dans la computation, qui fait apparaître la dynamique opérant entre un système automatisé et la pensée automatisée. Cela débouche sur une autre implication importante : tandis que la découverte d’Omega par Chaitin démontre que l’aléatoire est devenu intelligible au sein de la computation, les incomputables ne peuvent toutefois pas être synthétisés par un programme a priori ou par un ensemble de procédures qui leur soient inférieurs en taille. Selon Chaitin, Omega correspond à des états discrets qui sont eux-mêmes composés de nombres réels infinis ne pouvant être contenus par des axiomes finis. Ce qui doit nous intéresser ici, c’est le fait que le nombre Omega de Chaitin soit simultanément intelligible et pourtant non-synthétisable – ni par des universaux, ni par un sujet. J’en tire la suggestion que la computation, en tant que mécanisation de la pensée, est intrinsèquement peuplée de données incomputables, et que des règles discrètes sont ouvertes à une forme de contingence interne au traitement algorithmique. Cela ne doit pas être compris comme relevant d’une erreur dans le système, ou d’un glitch au sein de la structure du code, mais bien plutôt comme une partie de la computation elle-même. Bien loin de disqualifier la computation comme une funeste incarnation de la façon dont le technocapitalisme instrumentalise la raison, nous sommes invités à réaliser que les algorithmes incomputables émergent pour défier la supériorité de la finalité téléologique de la raison, aussi bien que celle de la pensée sensible et affective.
Computation spéculative
Il serait illusoire de considérer avec un enthousiasme naïf cette proposition selon laquelle les incomputables définissent une forme dynamique d’automatisation. Il est important d’approcher la computation algorithmique sans négliger le fait que la computation d’infinis est centrale à la capitalisation des capacités intelligibles, même dans leur forme automatisée. J’insiste toutefois sur le fait que les incomputables ne sont pas exclusivement constitués par ces infinités non-représentables qui appartiennent à l’être du sensible : ce dont il est question, c’est d’une transformation ontologique et épistémologique de la pensée, telle que la fait apparaître la fonction algorithmique de la raison. Les incomputables sont exprimés par les capacités affectives à produire de la nouvelle pensée, mais ils révèlent également, et c’est plus important, la nature dynamique de l’intelligible. Je ne fais nullement ici appel à une quelconque essence computationnelle qui déterminerait la vérité de la pensée. Au contraire, je me suis tournée vers la découverte d’Omega par Chaitin parce qu’elle déboulonne radicalement le fondement axiomatique de la vérité, en révélant que la computation est une affaire incomplète, ouverte à la révision de ses conditions initiales, et donc à la transformation de ses vérités et de sa finalité. Dans la mesure où Omega est simultanément une probabilité discrète et infinie, ce nombre atteste le fait que la condition initiale d’une simulation, basée sur des étapes discrètes, est et peut être infinie. En résumé, les algorithmes incomputables découverts par Chaitin suggèrent que la complexité des nombres réels défie la fondation de la raison dans une axiomatique de type fini et dans la finalité téléologique.
Plusieurs conséquences peuvent être tirées de ce qui vient d’être présenté. J’admets parfaitement que le paradigme interactif du technocapitalisme pointe déjà vers une forme semi-dynamique d’automatisation, qui a asservi les capacités cognitives et affectives de notre époque, et qui a établi une gouvernementalité financière basée sur la dette. Mais, au-delà de ces constats, il reste des questions importantes à soulever quant à la signification des algorithmes. Au risque de brouiller toute opposition nette entre digitalité et philosophie[15], la question se pose de savoir ce que sont et comment sont les algorithmes. Pour le moment, je veux souligner que les algorithmes, cette forme dynamique de la raison, à la fois basée sur des règles et ouverte à être révisée, ne sont pas définis par la finalité téléologique, dès lors que des fonctions impersonnelles transforment une telle finalité à tout instant. Il ne s’agit pas d’y voir le simple remplacement ou la simple extension des fonctions cognitives humaines. Mon propos est de suggérer que nous sommes témoins de la configuration d’un mode incomputable de pensée qui ne peut pas être synthétisé dans une théorie ou un programme totalisants. Ce mode de pensée n’en expose pas moins la fallace de la philosophie et de la théorie critique, lorsqu’elles réduisent la computation à une mécanisation inférieure de la raison, vouée à la seule itération et incapable de modifier ses directions finales.
Mon objet principal de débat était ici la critique de la computation comme incarnation de l’instrumentalisation technocapitaliste de la raison. J’ai tenté de suggérer la possibilité de voir l’automatisation algorithmique coïncider avec un mode de pensée dans lequel l’incomputable ou l’aléatoire sont devenus intelligibles, calculables, mais non nécessairement totalisables par le technocapitalisme. En dépit de toute instrumentalisation de la raison par le capitalisme, et en dépit de la répression de la connaissance et du désir sous couvert de quantifications en termes de tâches, de fonctions, d’objectifs, il demeure certainement une inconsistance au cœur de la computation. C’est le cas dans la mesure où plus on calcule, plus on crée d’aléatoire (d’information dépourvue de pattern), ce qui met au jour les capacités transformatives des fonctions basées sur des règles. Dans la transition de phase caractérisée par la communication d’algorithme à algorithme, illustrée au mieux par le trading à haute vitesse évoqué au début de cet article, il est difficile d’exclure la possibilité de voir l’automatisation de la pensée excéder toute représentation pour révéler que la computation elle-même est devenue dynamique.
En guise de conclusion, j’aimerais ajouter ceci : l’automatisation dynamique ne peut pas être expliquée principalement en termes de relation pharmacologique entre la philosophie et la technologie, entre la connaissance et le capital, pas plus que comme le poison conditionnel permettant une réversibilité mutuelle définie par un fond commun, comme le prétend Bernard Stiegler. De même, on ne saurait réduire les tendances dynamiques figurant au cœur de l’automatisation algorithmique à la seule logique technocapitaliste d’organisation sémiotique, telle que la dénonce Maurizio Lazzarato, ni à la seule exploitation/répression des fonctions cognitives-créatives de la pensée.
Le véritable défi posé par la cognition automatisée à la perspective post-humaine – celui de la fusion de la pensée et de la technologie sous l’emprise du technocapitalisme – fait apparaître l’émergence d’un nouveau mode de pensée alien, capable de modifier ses conditions initiales et d’exprimer des fins qui ne s’alignent pas sur la finalité de la pensée organique. Cela implique aussi que la transition de phase caractérisée par la communication d’algorithme à algorithme ne se résume pas à être un exemple de plus de l’instrumentalisation technocapitaliste de la raison, mais qu’elle révèle plus subtilement l’avènement d’une seconde nature prenant la forme d’une intelligence automatisée dépourvue de finalité. Si l’automatisation algorithmique ne correspond plus à la simple exécution d’instructions préétablies, mais à la constitution d’une écologie machinique infectée d’aléatoire, alors on peut suggérer que ni le technocapitalisme ni la critique du technocapitalisme ne peuvent contenir la tendance du traitement automatisé de l’aléatoire à outrepasser les vérités axiomatiques.
Traduit de l’anglais par Yves Citton
[1] Cet article de Luciana Parisi est paru originellement en anglais sous le titre « Instrumental Reason, Algorithmic Capitalism, and the Incomputable » dans l’ouvrage collectif édité par Matteo Pasquinelli sous le titre Augmented Intelligence Trauma. Alleys of Your Mind, Meson Press, Lüneburg, 2015, p. 125-138, sous le régime de Creative Commons CC-BY-SA, grâce au soutien de l’incubateur d’innovation Leuphana de l’université de Lüneburg. Il est consultable en ligne sur http://meson.press/books/alleys-of-your-mind/. Multitudes remercie Mercedez Bunz, Luciana Parisi et Matteo Pasquinelli pour nous avoir donné l’autorisation gracieuse de traduire et publier cet article en français. Merci à Anthony Masure pour sa relecture de la traduction, ainsi qu’à Emmanuel Guez pour ses retours critiques.
[2] Neil Johnson et al., « Abrupt Rise of New Machine Ecology beyond Human Response Time », Scientific Reports 3 (September 11, 2013).
[3] Doyne Farmer & Spyros Skouras, An Ecological Perspective on the Future of Computer Trading. The Future of Computer Trading in Financial Markets, UK Foresight Driver Review 6, Government Office for Science, Londres, 2011.
[4] Sur ces divers points, voir Antonio Negri et Michael Hardt, Empire, Exil, Paris, 2000 ; Brigitte Biehl-Missal, « Atmospheres of Seduction : A Critique of Aesthetic Marketing Practices », Journal of Macromarketing, vol. 32 (2), 2012, p. 168-180 ; Mark Fisher, Capitalist Realism. Is There No Alternative ?, Zero Books, Londres, 2009.
[5] Voir Bernard Stiegler, Mécréance et discrédit, tome 3 : L’esprit perdu du capitalisme, Galilée, Paris, 2006, et État de choc : bêtise et savoir au XXIe siècle, Mille et une nuits, Paris, 2012.
[6] Maurizio Lazzarato, La fabrique de l’homme endetté, Éditions Amsterdam, Paris, 2011.
[7] Brian Massumi, « Potential Politics and the Primacy of Preemption », Theory & Event 10 (2), 2007; voir aussi, en français, « Le politique court-circuité : préemption et contestation », Multitudes, no50, 2012, p. 49-53.
[8] Isabelle Stengers, Cosmopolitiques 1 [1997], La Découverte, Paris, 2003.
[9] Gilles Deleuze, « Post-scriptum sur les sociétés de contrôle », Pourparlers, Minuit, Paris, 1990.
[10] Gilles Deleuze et Félix Guattari, Mille Plateaux, Minuit, Paris, 1980.
[11] Gilles Deleuze, Différence et répétition, PUF, Paris, 1968.
[12] Voir sur ce point Giuseppe Longo, « The Difference between Clocks and Turing Machines », in Arturo Carsetti, (éd.), Functional Models of Cognition. Self-Organizing Dynamics and Semantic Structures in Cognitive Systems, Springer, Dordrecht, 2000, p. 211-232, et « Laplace, Turing and the «Imitation Game» Impossible Geometry : Randomness, Determinism and Programs in Turing’s Test », in Robert Epstein et al. (éd.), The Turing Test Sourcebook, Kluwer, Dordrecht, 2007, p. 377-413.
[13] Voir Alan Turing, « On Computable Numbers, with an Application to the Entscheidungsproblem », Proceedings of the London Mathematical Society, series 2, vol. 42, 1936, p. 230-65. Pour davantage de précisions sur l’intersection entre les travaux de Hilbert, Gödel et Turing, voir Martin Davis, The Universal Computer. The Road from Leibniz to Turing, Norton and Company, Londres, 2000, p. 83-176.
[14] Voir Gregory Chaitin, « Leibniz, Randomness & the Halting Probability », Mathematics Today 40 (4), 2004, p. 138-39 ; « The Limits of Reason », Scientific American 294 (3), 2006, p. 74-81 ; « The Halting Probability Omega : Irreducible Complexity in Pure Mathematics », Milan Journal of Mathematics 75 (1), 2007, p. 291-304.
[15] Alexander Galloway, « The Poverty of Philosophy : Realism and Post-Fordism », Critical Inquiry 39 (2), 2013, p. 347-366.
Sur le même sujet
Articles les plus consultés
- Pour Gaza, contre l’antisémitisme, autrement Fragiles propositions vers une gauche d’émancipation internationaliste
- Il faut défendre les invulnérables. Lecture critique de ce qu’on s’est laissé dire, à gauche, sur la pandémie de covid
- Le partage du sensible
- Des écoles d’art et design en lutte Contribution à une (re)politisation du champ de l’art
- Le mouvement Standing Together en Israel Palestine