Majeure 62. Subjectivités numériques

Subjectivations computationnelles à l’erre numérique

Partagez —> /

« Subjectivations computationnelles » : l’expression est barbare, mélange inquiétant de menace et d’opacité[1]. Elle est pourtant essentielle à comprendre ce qui se joue en ce moment, entre nous, en nous, à travers nous – entre calcul et dérive. Commençons par en expliciter quelques termes-clés.

Les subjectivations, ce sont les façons dont se construit progressivement notre subjectivité singulière (notre esprit, notre personne, notre « âme » propre), telle que la sculptent nos interactions avec notre environnement naturel, technique et social. Certains « se subjectivent » en cherchant à obéir à l’image qu’ils se font d’un bon élève, d’un chef d’entreprise, d’un hacker, d’un zadiste, d’un artiste, d’un légionnaire, d’un islamiste, d’un athlète ou d’un plombier – images toujours singulières et partielles qui ne sont évidemment qu’un avatar de toutes les occurrences possibles dans chaque catégorie. La computation est pour sa part un traitement automatique, basé sur des circuits électriques de calcul, qui sélectionne, trie, divise, classe, compare, recalcule, recompose, recombine des données entrées dans un appareil de computation (un ordinateur ou, en anglais, un computer). La computation repose sur le calcul, mais ne s’y réduit pas : elle s’inscrit dans une multiplicité d’appareils techniques et de pratiques sociales qui fournissent leur matière première aux machines à calculer (les « données »).

Ces données sont généralement issues elles-mêmes de traitements antérieurs qui les ont formatées pour apparaître comme des « données » – et il vaudrait donc mieux les appeler des prises (inspirées par les « préhensions » du philosophe Alfred North Whitehead), puisqu’elles consistent en certaines manières de « saisir » certaines caractéristiques explicitement définies par les humains pour les machines, au sein du magma continu et complexe de nos réalités matérielles et sensorielles. On qualifie nos computations actuelles de numériques (ou « digitales ») dans la mesure où elles analysent toutes les prises exécutées au sein de cette réalité en termes de données binaires, formulées comme séquences de 0 et de 1 – au terme d’un processus que l’on appelle discrétisation (ou grammatisation), qui transforme des continus (l’arc en ciel, la ligne peuplée d’une infinité de points s’étendant entre un 0 à 2) en éléments distincts (isolés, séparés, discontinus, « discrets »). La numérisation constitue donc un travail d’abstraction : elle extrait d’un concret continu un petit nombre de caractéristiques jugées « pertinentes », pour rendre compte (de façon réductrice) de ce concret qui en tient lieu dans les calculs, tout en y négligeant une infinité d’autres caractéristiques tout aussi réelles mais jugées « non-pertinentes ».

Ces données numériques discontinues, prises au sein de nos réalités continues selon des « taux d’échantillonnage » variables, sont traitées par des algorithmes, qui consistent en des suites de commandements encodés dans un appareil, de façon à diviser une tâche complexe (comme reconnaître un numéro de plaque automobile) en une série de sous-tâches exécutables de façon plus simple (localiser la plaque sur la photo ; identifier le premier chiffre ; identifier le deuxième chiffre ; etc.). À l’extérieur du monde computationnel, une recette de cuisine donne un bon exemple intuitif de ce qu’est un algorithme. On parle de « gouvernement algorithmique » pour désigner la façon dont nos appareils de computation surpuissants peuvent aujourd’hui identifier, sélectionner, classer et recombiner des données numérisées de façon à cartographier et à recomposer en temps réel une résultante de l’ensemble de nos interactions sociales.

Les deux dernières décennies ont vu la computation numérique devenir ubiquitaire du fait de la miniaturisation et de la nature portable de nos appareils de computation (les PC, puis surtout les smartphones connectés aux réseaux de téléphonie sans fil). Qu’il s’agisse de « prendre », de traiter ou de réinjecter des données dans nos systèmes d’information, la computation est désormais partout, infiltrant nos façons de communiquer, d’interagir, de penser, d’imaginer, de désirer. Étudier nos « subjectivations computationnelles », c’est d’abord essayer d’y voir un peu plus clair dans cette computation ubiquitaire et intégrale des données de nos vies sociales et mentales, opérée à travers les mécanismes de saisie et de traitement algorithmique numérisé.

 

Prendre du recul sur la numérisation en cours

Cette irruption du numérique dans nos vies fait désormais l’objet de nombreux discours, généralement critiques. Le « trans-humain » et ses gourous californiens prophétisant pour les années 2030 l’avènement d’une « singularité » – qui détacherait définitivement nos existences de leur substrat vulgairement matériel en nous transmutant en pure information (le « contenu informationnel de notre cerveau » !) – ne rencontrent d’habitude sous nos contrées que des sourires entendus et ironiques. Loin de faire rêver, le numérique devient la source de cauchemars sécuritaires ou d’une pensée magique trop étroitement associée au capitalisme néolibéral pour ne pas inquiéter les plus lucides[2]. Vingt ans après les espoirs suscités par un Internet qui promettait de remettre à plat les hiérarchies et les rapports d’autorité traditionnels, Benjamin Bratton publie un ouvrage dédié à cartographier la verticalité des nouveaux rapports de pouvoir instaurés par l’hégémonie des plateformes au sein d’un « empilement », the Stack, analysé en six couches : Terre, Nuage, Ville, Adresse, Interface, Utilisateur[3].

Bien entendu, il faut se féliciter de voir les fumeuses fantaisies d’un numérique purement éthéré être ramenées aux coordonnées matérielles de nos réalités environnementales. Tout un courant des études de media se préoccupe désormais de comprendre comment la circulation de l’information (prétendument « immatérielle ») contribue à saccager de façon croissante nos ressources environnementales, déjà si maltraitées par la production industrielle[4]. Un courant voisin et parallèle remet la notion d’« infrastructure » au cœur de nos façons de comprendre et d’imaginer nos rapports sociaux, tels qu’ils se trouvent médiatisés par la circulation instantanée de l’électricité (et de l’information numérisée) à une échelle désormais planétaire[5].

Faut-il pour autant mettre au rebus les espoirs suscités par les discours sur « l’immatériel » – pour en revenir aux bons vieux principes du matérialisme, aux évidences empiriques de « l’économie réelle », et aux indéniables limites de nos ressources environnementales ? Ce dossier consacré à ces objets bizarres et improbables que seraient des « subjectivations computationnelles » s’efforce au contraire de concevoir un autre matérialisme, mieux à même de porter les espoirs des cultures numériques, d’imaginer une autre économie, ouverte aux externalités qu’elles multiplient si rapidement, et une autre écologie, aussi bien mentale que physico-biologique et sociale. Envisager ces subjectivités computationnelles n’a par ailleurs rien de très nouveau en soi : dès les années 1980, des penseurs comme Vilém Flusser, Félix Guattari ou Pierre Lévy (entre autres) posaient les bases d’une écologie de l’esprit numérique qu’on ne fera ici que (re)mettre à jour[6].

 

Une intrication toujours plus étroite des superstructures et des infrastructures

Un large consensus invite aujourd’hui à revenir à la notion d’infrastructure pour y retrouver le lieu fondamental du politique (à conjuguer au masculin singulier, bien entendu). Pour le Comité invisible comme pour les apôtres de la croissance verte, en passant par certains archéologues des media, trois décennies se seraient fourvoyées à mettre en équation le politique avec le « personnel », dans une lecture individualiste et réactionnaire de Mai 68. Lassés des vaines (et explosives) illusions de « l’identité », nous serions appelés à en revenir aux fondamentaux de l’existence matérielle (l’air, l’eau, les sols, l’agriculture, la matière, l’énergie, qui comportent, autant que du dur, du mou et du gazeux, sans échapper pour autant aux lois de la physique. Le pouvoir serait à chercher dans un « infrastructurel », invisible parce qu’omniprésent de façon sous-jacente.

Les mêmes soulignent, avec autant de bonnes raisons, que mieux comprendre cette infrastructure est nécessaire à mieux orienter les formes de « subjectivation » qui en émanent. Après l’explosion des bulles boursière (dotcom), financière (subprimes) et intellectuelle (l’immatériel), on n’est pas retombé pour autant sur les pieds rassurant d’un vétéro-marxisme de bon aloi, car l’infrastructure (les moyens et modes de production de nos existences sociales) comprend les superstructures (les idéologies, les lois, les appareils d’État, les consciences), tout ce qui a été fixé dans le marbre matériel ou institutionnel pour garantir la reproduction de nos vies, de nos rapports sociaux, sinon à l’identique du moins dans les mêmes hiérarchies.

Sous la surface d’un éternel retour du même se cache donc une variation significative par rapport au vieux marxisme. Deleuze et (surtout) Guattari sont passés par là, montrant le rôle déterminant (infrastructurel) que jouent les modalités régissant nos « productions de subjectivité »[7]. Nourris de ces thèses, ainsi que de celles de Baudrillard, Debord, Virilio ou Sloterdijk, les débats actuels reconnaissent le plus souvent, fût-ce implicitement, une certaine convergence entre l’infrastructure matérielle des machines communicantes et la superstructure des subjectivations (des individuations indissociablement personnelles et collectives) réalisées au sein de ces machines. Au fil des diverses étapes des développements historiques, l’agriculture et la technoculture ont de tout temps induit une certaine puériculture et une certaine socioculture – ce que Cornélius Castoriadis présentait comme une production de masse d’individus dotés d’un certain imaginaire commun[8]. La phase actuelle se caractérise surtout par une intrication à la fois plus complexe, plus profonde, plus intime, et donc plus inextricable, entre ce qui relève de la formation des subjectivités (soft) et ce qui relève de la (re)production des infrastructures matérielles (hard). C’est parce que des smartphones et des serveurs nous permettent d’être connectés en permanence que nos désirs nourrissent des modes de connexion encourageant Apple, Samsung, Orange, Google et Facebook à multiplier les smartphones, les serveurs, et les services que nous pouvons en tirer, et donc les chaînes de montage, les centrales nucléaires, les alignements de télémarketeurs qui en assurent la multiplication – par la ruse funeste de l’obsolescence programmée – avec les effets environnementaux que l’on connait (encore trop mal).

 

Un court-circuitage généralisé

S’il y a une particularité propre à notre époque historique, elle tient moins à cet emballement commercial de la promotion et de la diffusion de nouveaux gadgets techniques, qu’à la façon dont ils branchent leurs extensions et leurs implications jusqu’au plus intime de nos subjectivités. L’achat d’une voiture de sport pouvait certes émaner et témoigner d’un désir sexuel (crâner, draguer, coucher), et donc être mis en relation par une psychologie sommaire avec des mécanismes hormonaux. Ce qu’il y a de quantitativement et qualitativement nouveau, c’est la multiplication et le raccourcissement des circuits de stimuli-réponses permettant de « contrôler » (indissociablement monitorer et gouverner) nos comportements et nos désirs. Tel est l’enjeu de la dynamique cybernétique instaurée depuis à peine deux décennies entre nos navigations sur Internet, la traçabilité de nos parcours et profils d’internautes, la commercialisation et la surveillance policière des traces ainsi offertes à la computation. Grâce aux pouvoirs de cette dernière, nos subjectivités se manifestent théoriquement désormais à livre ouvert, depuis n’importe quel point de la planète, pour qui a les moyens (computationnels, techniques, financiers, politiques) de se brancher sur les big data des traces qu’elles laissent partout où elles passent.

La « désintermédiation » dont il a tant été question au cours des années 2000 consiste bien en une multiplication de petits court-circuitages. On désigne par ce terme le fait que, depuis quelques années, nous n’avons plus besoin de passer par un disquaire pour accéder à la musique, d’entrer dans une agence de voyage pour acheter un billet d’avion, d’aller au cinéma pour voir un film, d’appeler une centrale pour obtenir un taxi : l’échange de fichiers mp3 de pair-à-pair, la commande d’un billet sur Expedia, le téléchargement de films depuis Netflix, le réseau de chauffeurs connectés par la plateforme Uber court-circuitent, grâce aux vertus de la computation, les diverses institutions qui servaient d’intermédiaires centralisant, filtrant, autorisant, reconditionnant les rapports entre désirs et disponibilités. Les superstructures de nos désirs, de nos institutions, de nos imaginaires, de nos rituels se trouvent transformées en habitudes par l’infrastructure de la circulation de l’information numérisée et électrifiée.

Un tel court-circuitage entraîne une reconfiguration radicale des rapports entre subjectivités et computation. Au lieu de fournir à chacun des types idéaux de comportement auxquels conformer son désir, dans le sentiment constant de manquer à la perfection, ce court-circuitage nous fournit des readymade à adopter, légitimés par la masse de ceux qui sont passés avant. Pour essayer d’y voir plus clair, on passera ici rapidement en revue neuf modalités d’articulations possibles entre subjectivation et computation : opacisation, rigidification, exploitation, superposition, exclusion, extension, interpénétration, altérité, errement.

 

Opacisation et rigidification des boîtes noires

Dans un article au titre provocateur, Friedrich Kittler affirmait dès 1992 qu’« Il n’y a pas de software »[9]. Il donnait ainsi sa formulation la plus radicale au nouveau matérialisme computationnel prenant acte de la reconfiguration des superstructures imaginaires sur l’infrastructure de la circulation électrique. Il y affirmait que la malléabilité du software est toute relative, pour deux raisons. D’une part, n’y ont accès que ceux qui sont en mesure de reprogrammer les codes gouvernant nos machines computationnelles, ce qui, même au sein d’une génération de hackers, ne concerne malheureusement qu’une toute petite partie de nos populations – alors que nous sommes tous soumis aux effets des logiciels opaques contrôlant nos comportements et nos désirs. Si l’on rajoute les opacités dues aux protections de copyright et au culte du secret entretenu par les détenteurs de pouvoir de toutes sortes, la société computationnelle est bien, pour la grande majorité de ses membres, une société de boîtes noires[10] – générant des sentiments d’angoisse, d’injustice, de frustration, d’impuissance et de colère dont les effets sont aussi prévalants (populismes, exclusion) qu’insuffisamment discutés.

Ces effets d’opacisation redoublent la frustration des utilisateurs (non-codeurs) du fait des rigidités que la mécanisation impose à nos interactions sociales. On peut toujours essayer d’attendrir un fonctionnaire de Pôle Emploi, même si ses mauvaises conditions de travail le condamnent souvent à la déshumanisation. On reste parfaitement démuni face à un formulaire en ligne qui ne contient pas la case adéquate à notre situation. Conformément à l’intuition de Kittler, le prétendu soft se révèle rapidement très hard – que ce soit au niveau du fonctionnement interne des appareils, où tout se réduit à des circuits électriques ouverts ou fermés, commandés par des codes strictement binarisés, ou au niveau des interfaces institutionnelles qui régissent notre accès au fonctionnement de ces appareils de computation.

Comme l’avait très bien annoncé Vilém Flusser (1920-1991), nos subjectivités font souvent face à la computation comme à une source d’aliénation génératrice de frustration, de colère et de rage, dans la mesure où elle leur oppose des boîtes noires, perçues comme dures et inhumaines, que seule une « élite » (honnie) est en mesure de contrôler (à son profit)[11]. Tant que ces boîtes noires resteront impensées comme telles, nos subjectivations resteront computationnées (contre leur gré, à leur insu et sans leur participation), et non computationnelles, risquant fort de nourrir les pires tendances et les pires affects dont nous percevons actuellement la remontée inquiétante.

 

L’exploitation algorithmique des subjectivités

Le ressentiment nourri dans certains milieux par la numérisation de nos relations sociales témoigne souvent d’une analyse lucide des nouveaux rapports d’exploitation induits par la gouvernance algorithmique[12]. Dans l’article qu’il a rédigé pour ce dossier et dans un livre important dont la traduction française a paru il y a quelques mois[13], Franco Berardi explore les conséquences sociopolitiques et anthropologiques d’une analyse computationnelle qui tend à segmenter nos comportements en tranches d’opérations infiniment recombinables selon les dynamiques du capital financier. Nos existences se trouvent précarisées par la mise en vente de « paquets de temps » sur lesquels s’exerce une compétition effrénée et planétaire (Uber, Airbnb, Mechanical Turk, etc.), avec des effets délétères sur nos modes de subjectivation. Comme le dénonce également depuis une quinzaine d’années Bernard Stiegler, dans ce mixte détonnant d’homogénéisation mass-médiatique et de fragmentation existentielle, nos subjectivités coincées risquent de continuer à recourir en masse à ces ressources fallacieuses que sont les psychotropes, les reterritorialisations nationalistes et xénophobes, voire les tueries suicidaires.

Cartographier ces nouvelles formes d’exploitation induites par la computation numérique permet de repérer les énormes allongements de circuits qui contrebalancent les court-circuits de la désintermédiation. Des plateformes comme Uber, Airbnb ou Mechanical Turk paraissent certes mettre des consommateurs pressés en contact « direct » – sans intermédiaires – avec des fournisseurs de services précarisés. Mais ces plateformes, comme d’ailleurs leurs grandes sœurs Facebook ou Google, s’assurent des profits colossaux en imposant le long détour d’une captation de profit qui draine des revenus de rente de tous les coins de la planète vers leur Californie natale. Cette infrastructure de plateformes quasi-monopolistiques bouleverse notre imaginaire encore dominant d’un web décentralisé : nos subjectivités se construisent désormais à l’intérieur de « protocoles » (c’est-à-dire de procédures strictement formalisées d’encodage, de mise en circulation et de traitement des données) qui sont non seulement standardisés et homogénéisés, ce qui est une condition de leur bon fonctionnement, mais aussi contrôlables depuis un point central (San Francisco, Cupertino, Mountain View, Seattle, etc.). Ceux qui se sont de tous temps préoccupés de l’intime proximité associant subjectivation à assujettissement n’ont sans doute pas tort de se faire du souci : les subjectivations computationnelles induisent clairement de nouvelles formes de contrôle, de conditionnements, d’influences et de manipulations – à une échelle et avec une force de pénétration inouïes à ce jour.

 

Un rapport de superposition entre subjectivation et computation ?

Cette peinture sinistre de l’emprise computationnelle sur nos subjectivités n’est pourtant que l’une des faces d’une réalité multiple et bien plus ambivalente. Cette face sombre s’appuie sur de nouveaux savoirs émergents, utilisés toutefois de façon unilatérale. Une large part de la nouveauté de notre situation tient à la capacité de nos procédures scientifiques à traduire nos subjectivités en termes quantitatifs de neurotransmetteurs chimiques et d’influx nerveux électrique à l’intérieur d’une certaine modélisation du cerveau. Jessica Pykett a bien montré dans un livre récent à quel point l’imaginaire des neurosciences s’est imposé pour informer de l’intérieur de larges pans des institutions régulant nos interactions sociales[14]. L’imaginaire de la « convergence NBIC » (Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives) a colonisé nos débats en imposant une triple superposition entre 1° les connexions neuronales à l’intérieur de notre cerveau, 2° les connexions computationnelles entre microprocesseurs à l’intérieur de nos ordinateurs et 3° les connexions communicationnelles entre nos appareils médiatiques.

À la fois un ouvrage classique de Jeffrey Sconce et une somme récente de Mireille Berton ont documenté en détails l’historique d’une « logique de transmutation des flux »[15] : depuis le « télégraphe spirite » de la seconde moitié du XIXe siècle jusqu’aux angoisses actuelles sur les jeux vidéo, en passant par la dénonciation des nuisances du cinéma, la mise en ondes de la Guerre des mondes par Orson Welles, la théorisation des médias par Baudrillard et l’imaginaire du Truman Show ou de Matrix, nous faisons comme si les flux de courant électrique, d’influx nerveux, de bits informatiques et d’influence médiatique se superposaient plus ou moins parfaitement, parce qu’ils participeraient d’une même mystérieuse substance commune (« l’information »).

Les modes de subjectivation seraient dès lors tout à fait infrastructurels en ce qu’ils seraient en passe de se calquer strictement sur la circulation de l’électricité – inter-organique et intra-organique – à la surface de la planète Terre. L’inquiétant – et le plus intéressant – d’une telle hypothèse est qu’elle ne relève plus nécessairement de la paranoïa : la numérisation ubiquitaire de nos existences donne au contraire un air de vérité prophétique de plus en plus frappant aux délires spiritistes, occultistes, conspirationnistes et science-fictionnistes des décennies passées. De fait, après deux siècles de progressive électrification de nos infrastructures productives (accomplie par la construction de centrales électriques, l’installation de câbles, la gestion de réseaux, la connexion de serveurs), nous entrons dans une phase accélérée d’électrisation de nos subjectivités et de nos comportements relationnels. Notre attention individuelle est de plus en plus envahie par des notifications auxquelles nous nous exposons (plus ou moins « volontairement ») de façon permanente et ubiquitaire : pour le meilleur comme pour le pire, mes proches (mais aussi mes supérieurs hiérarchiques, mes clients, mes partenaires, mes fournisseurs de services) peuvent m’électrifier, à tout instant du jour et de la nuit, en tout point de la planète, par un coup de fil dirigé grâce à la computation numérique avec une pertinence inouïe. Cette électrisation, opérée en l’occurrence par un message, a été mobilisée, il y a quelques années, pour localiser un chef tchétchène, de façon à lui envoyer un missile en guise de réponse, selon des logiques militaires largement répandues depuis. Dans notre expérience quotidienne, le rêve de déconnexion (le temps d’un week-end, d’un été, d’une « retraite » monastique) fait miroiter la possibilité (pratiquement intenable) d’une désélectrisation de nos subjectivités.

Malgré sa puissance d’éclairage, cet imaginaire de la transmutabilité des flux repose sur (et renforce) l’hypothèse d’une superposition parfaite entre subjectivation et computation, superposition qui mérite toutefois de soulever des objections. De nombreux discours tenus sur nos subjectivités computationnelles reposent sur la double fallace d’un corporel réduit au seul cérébral et d’un mental réduit aux traitements binaires et simplistes de l’intelligence artificielle. Après avoir projeté de l’intelligence sur les machines, on modélise le cerveau comme un ordinateur, alors même que la complexité du premier dépasse considérablement celle du second, écrasant les différences et degrés multiples qui séparent l’information de la signification.

 

Un rapport d’exclusion ?

D’où une autre conception – apparemment opposée mais en réalité symétrique – qui propose un rapport d’exclusion entre subjectivation et computation automatique. Le propre de notre subjectivité serait justement d’échapper à, et d’excéder, toute logique (mécaniste, binaire, réductrice, automatisable) de computation. La singularité de notre pensée et de notre imagination serait donnée par la singularité organique de notre corps physique – et la définition de « l’humain » reposerait justement sur une antinomie essentielle entre la computation machinique et la construction de soi comme « sujet ».

Dans ce qui pourrait bien être le plus grand roman de la subjectivation moderne, le Manuscrit trouvé à Saragosse rédigé entre 1787 et 1815, mais publié pour la première fois en 2008 seulement dans sa version originale française[16], Jean Potocki donne une place centrale au personnage du géomètre Velasquez, dont la principale ambition est de tout réduire au calcul, depuis la composition chimique de la matière et le déroulement de l’histoire humaine jusqu’aux affres des émois amoureux. L’intrigue située à la fin du XVIIe siècle participe du rêve partagé par Descartes, Spinoza ou Leibniz d’une mathesis universelle et automatisable, une calculation totale capable d’analyser, d’expliciter et de recombiner tout le vivable et tout le pensable selon des procédures de computation.

Or Potocki fait de Velasquez un personnage à la fois profondément sympathique et parfaitement ridicule : l’une de ses premières apparitions le voit tomber dans une rivière (qu’il n’a pas vue tant il était distrait par la profondeur de ses calculs), être sauvé de la noyade par le vaillant Alphonse van Worden, que le géomètre, au lieu de le remercier, croit lui-même avoir sorti de l’eau et qu’il blâme pour sa distraction. Ce qui apparaît comme un signe de folie est en fait mis en scène comme inhérent à une pensée strictement computationnelle : dans un monde fait entièrement d’équations et d’algorithmes, il n’y a que des x et des y, c’est-à-dire des « inconnues » et des règles générales, qui excluent tout accès à la singularité comme telle. La formule x a sauvé y est, du point de vue de la logique computationnelle, parfaitement indifférente au fait que x s’appelle Velasquez et y, van Worden, ou l’inverse. En s’identifiant à la computation, le personnage du géomètre ne peut qu’abdiquer toute prétention à l’état de sujet humain (singulier) – ou plutôt, parce qu’il est bel et bien humain après tout, il ne peut se subjectiver que comme un fou, inoffensif mais ridicule.

Aussi puissamment évocatrice qu’elle soit dans le roman de Potocki, et pour prégnante qu’elle soit sur nos façons communes de penser, une telle exclusion entre le computationnel et le subjectif mérite autant d’être remise en question que leur pure et simple assimilation. La réflexion sur les subjectivations computationnelles vise justement à comprendre quels autres rapports, plus subtils, plus problématiques, sont mieux à même de décrire les relations complexes et profondément intriquées qui se lient entre les deux. Depuis plusieurs années, le travail nuancé de dana boyd documente empiriquement ce que le titre de son dernier livre rappelle avec insistance : « C’est compliqué ! Les vies sociales des adolescents en réseaux » ne se réduisent ni à des fantasmes de tueries induites par des jeux vidéo, ni à des subjectivités intégralement computationnées par le technocapitalisme dominant[17]. Nos infrastructures de communication et de computation fuient de toutes parts, et la meilleure façon de voir des subjectivations computationnelles à l’œuvre est d’observer ce qu’en font les jeunes dans leur diversité, leur pluralité et leur inventivité quotidienne.

 

Un rapport d’augmentation ou d’extension

Dans la mineure du n° 59 consacrée aux « humanités numériques 3.0 », Multitudes a publié un article important de David M. Berry intitulé précisément « Subjectivités computationnelles », dont Anthony Masure revisite et déploie ici les enjeux de façon plus didactique et plus approfondie. Berry y plaidait pour une nouvelle conception de la Bildung (formation) fournie au sein de nos universités en ce début de XXIe siècle : « le sujet à la Humboldt, rempli de culture et d’une certaine conception de la rationalité, cesserait simplement d’exister. Il se trouverait remplacé par une subjectivité computationnelle qui saurait où retrouver de la culture au fur et à mesure qu’elle en aurait besoin, en conjonction avec les autres subjectivités computationnelles disponibles à ce moment précis – participant ensemble d’une subjectivité culturelle en temps réel et à flux tendus peut-être, nourrie de réflexions et de visualisations connectées et computationnellement assistées ». Une telle approche appelle à comprendre les rapports entre subjectivation et computation en termes d’extension et d’augmentation.

Les différentes formes d’augmentation de l’humain suscitent à juste titre la méfiance. Qu’il s’agisse d’absorber des substances chimiques pour passer des examens ou pour gagner le Tour de France, pour se gonfler la poitrine ou pour paraître un jeune homme à 80 ans, la rhétorique de l’augmentation s’inscrit dans un contexte de compétition marchande et de commercialisation effrénée qui la discrédite fortement. Cela dit, si le silex n’avait pas augmenté la main de nos ancêtres, si le livre imprimé n’avait pas augmenté notre mémoire collective, nous n’en serions pas plus « authentiquement humains » pour autant. Le langage oral et ses supports écrits sont-ils une « augmentation » de l’humain, ou font-ils partie intégrante de son humanité ?

On peut préciser un peu ces questions en se tournant vers les théoriciens de l’extended mind (« esprit étendu ») qui, à la suite d’Andy Clark, refusent de limiter « l’esprit et l’intelligence » aux seuls confins du cerveaux ou du corps organique individualisé, mais proposent de les considérer comme « réalisés mécaniquement par des mélanges complexes et variables d’accouplages énergétiques et dynamiques, de formes de représentation et de computation internes et externes, de formes d’action corporelle à vertu épistémique et d’exploitation habile d’une variété d’accessoires, d’aides et d’échafaudages extracorporels ». Clark nous dépeint comme des « cyborgs naturels » [natural-born cyborgs] qui « renégocient constamment leurs propres limites, leurs composants, leurs stockages de données et leurs interfaces »[18].

Nous publions ici la traduction d’un article de 2004, d’une grande influence sur la pensée anglo-saxonne, dans lequel le géographe britannique Nigel Thrift décrit ces extensions extérieures de notre esprit comme constituant notre inconscient technologique – Katherine Hayles parle pour sa part de « non-conscient cognitif » pour s’y référer[19]. Il désigne ainsi tous ces systèmes de mesure mis en place au fil des siècles (depuis le quadrillage des adresses postales jusqu’à l’instauration des barre-codes et des adresses IP) pour régimenter la façon dont tout désormais se trouve « positionné et juxtaposé » au sein d’appareils de repérages et de computation. À la lumière de cet inconscient technologique, nos subjectivités sont d’ores et déjà computationnelles dans la mesure où leur capacité à s’orienter dans le monde repose sur toute cette infrastructure, lourde et multiséculaire, qui nous donne le sentiment de savoir où (et donc qui) nous sommes, par rapport à d’autres sujets également situés. La contribution d’Anne Zeitz explore des implications plus sombres de cette géolocalisation, à travers les problèmes de subjectivation rencontrés par les opérateurs de drones, cas-limite mais riche d’enseignements des subjectivités computationnelles.

 

Computer, c’est collecter pour estimer

L’intérêt d’une approche décrivant un rapport d’extension entre le subjectif et le computationnel est ne se borne pas à nous faire repérer un inconscient technologique extérieur aux limites de notre corps organique. Il est surtout de mettre en lumière deux conditions que doit présenter un appareillage extérieur (carnet de note en papier, calculatrice, connexion téléphonique, smartphone) pour être inclus dans l’extension de « mon » esprit, au même titre que mes neurones : cet appareillage et les informations qui en proviennent doivent 1° être aisément et constamment disponibles, au même titre qu’une partie de notre corps propre qui nous suit partout où nous allons (availability), et 2° faire a priori l’objet d’une confiance a-critique, qui ne pourra être remise en question que dans des situations extrêmes, de même qu’on ne se demande si nos yeux ne nous trompent pas que dans les cas exceptionnels d’un mirage ou d’une hallucination (endorsement).

Ce double critère résonne intimement avec l’étymologie de la computation. Contrairement à cogitare, qui désigne la puissance logique de la pensée, putare met plutôt l’accent sur sa dimension d’évaluation et de croyance : com-putare, c’est rassembler, sélectionner et calculer afin d’assoir une croyance, autrement dit collecter au sein d’une estimation, bien davantage qu’aligner au sein d’un enchaînement propositionnel. Nos subjectivations computationnelles ont pour condition première et ultime la fiabilité des appareils et des systèmes constituant leur extension – au double sens d’une fiabilité à la fois technique (ça marche toujours) et épistémique (je fais confiance aux informations que j’obtiens).

 

Un rapport d’interpénétration et de négociation

Les cyborgs naturels d’Andy Clark sont appelés à renégocier constamment les limites toujours mouvantes et adaptatives qui séparent l’intérieur de l’extérieur de leur esprit étendu. D’une part, on observe de constants redéploiements cognitifs par lesquels nos activités mentales se re-spécialisent et se recentrent autour des tâches complémentaires à celles que peuvent accomplir les machines. Dès lors qu’un logiciel calcule et dessine automatiquement les contraintes de résistance des matériaux impliqués dans la construction d’un bâtiment, quelles sont les tâches qui reviennent en propre à l’architecte ? Sa subjectivité est appelée à se redéfinir comme ce qui doit coexister avec et complémenter symétriquement les computations opérées par les machines.

Mais loin de rester étanches et clairement différenciées, les opérations produites par les machines computationnelles et celles exercées par les cogitations humaines s’interpénètrent et tendent aussi à s’informer mutuellement. Comme le souligne à juste titre Dominique Cardon dans son dernier ouvrage particulièrement synthétique, accessible et éclairant[20], les algorithmes ne sauraient être réduits à des instruments de contrôle et de manipulation : ils nous sont absolument nécessaires pour ne pas nous noyer dans l’embarras des richesses fournies par Internet. Comme tous les media, mais sans doute plus insidieusement qu’aucun autre, ils ne nous informent jamais sans simultanément nous in-former. On connaît l’exemple de ces enfants du numérique qui disent à leurs parents Pomme Z ! lorsqu’ils souhaitent « annuler la dernière opération » (un mot malheureux sorti de leur bouche, un geste inconsidéré, etc.). En d’autres termes, loin de nous faciliter seulement des opérations extérieures, nos appareillages de computation nous fournissent également des modalités de subjectivation – d’où l’intérêt de se tourner vers la science-fiction pour explorer par avance les « souvenirs du futur » déjà inscrits dans nos inventions du présent, comme le suggère dans ce dossier l’article d’Ariel Kyrou.

 

Affres et surprises de la fiabilité

Toutes ces perspectives (déjà largement actualisées) suscitent nombre d’angoisses : sommes-nous conduits à penser comme des machines dès lors que nous pensons avec des machines (question discutée avec rigueur dans la contribution de Tyler Reigeluth) ? Allons-nous perdre toute capacité de pensée à force de déléguer toutes nos tâches mentales à des appareils réputés fiables – comme nous en menace, sur la question de la mémoire, la catégorie clinique de « démence digitale », qui décrit un vidage progressif du cerveau humain au fur et à mesure qu’il extériorise ses traces mémorielles dans des supports computationnels extérieurs[21] ? Allons-nous, dans un avenir proche, passer le plus clair de notre temps à converser avec des « bots » (ou robots algorithmiques) sans même savoir que ce ne sont pas des sujets humains qui répondent à nos demandes ? Un pourcentage considérable des clics assurant les revenus publicitaires sur internet n’émanent déjà que de l’attention automatique de tels bots, qui ont infiltré depuis longtemps les services d’assistance en ligne, la rédaction d’articles de presse et d’entrées d’encyclopédies, les chats pornographiques ainsi que les campagnes électorales[22]. Peut-être que le jour où les bots éliront directement nos chefs-zombies de gouvernement fantoches, nous autres humains pourrons enfin faire de la politique…

La question la plus décisive, derrière ces extensions multiples de subjectivités hybrides, est sans doute celle de la fiabilité, et plus précisément de son échelle : « mon » esprit étendu ne peut plus être conçu en termes individualistes si son bon fonctionnement repose sur la production d’électricité nécessaire à alimenter les serveurs, les bases de données, les algorithmes avec lesquels il croit pouvoir entretenir une relation fiable. Quel esprit me restera-t-il lorsqu’un accident nucléaire, un attentat, un virus, un effondrement m’auront séparé d’une partie de mon esprit étendu ?

Ces questions préoccupantes sont certes essentielles – et mériteraient de faire l’objet d’un autre dossier. Les articles réunis dans celui-ci jouent plutôt avec les aspects étonnants et porteurs d’espoirs de ces négociations sur l’interpénétration du computationnel et du subjectif – à l’occasion d’avatars de compétitions sportives menées désormais exclusivement entre algorithmes aux USA (dans la réflexion de Jeff Guess) ou à l’occasion d’un dispositif d’écriture collective et automatisée d’un article de Multitudes (dans la proposition d’@81happenings).

 

Un rapport d’altérité : l’incomputable interne à la computation

Il est pourtant une dernière forme de rapports entre subjectivation et computation qui nous semble peut-être la plus prometteuse, ou en tous cas la plus intrigante. En prenant le contrepied du rapport d’exclusion postulé par notre tradition entre subjectivité et automatisme machinique, on peut en effet se demander à quoi ressemblerait une subjectivité interne aux machines computationnelles elles-mêmes. Non pas la subjectivité humaine en tant qu’affectée par des machines, mais une subjectivité de machine en tant qu’observée par des humains. En quoi peut-on (ou non) dire d’un ordinateur (ou d’un bot) qu’il est « attentif » à ce qui se passe sur Internet, lorsqu’il arpente le web, lorsqu’il se met à jour, lorsqu’il repère et relaie des notifications ?

On parle de plus en plus de machine learning (ou de deep learning) pour désigner le fait que des systèmes automatiques de computation (de deuxième génération) sont capables de générer (d’« apprendre » par eux-mêmes) de nouvelles règles de fonctionnement leur permettant de s’adapter à des données non-prévues ou à des besoins de traitement non-préprogrammés, ce qui leur permettrait de faire émerger de nouvelles significations à partir de ces données. Tout se passe comme si de nouvelles pertinences émergeaient du traitement automatique des données, irréductibles à celles insérées par les subjectivités humaines qui ont effectué l’encodage desdites machines. En quoi ce machine learning, décrit comme une nouvelle étape dans la puissance de nos appareils de computation, fait-il émerger une forme de subjectivité interne aux procédures mécaniques qu’il mobilise ?

L’article de Luciana Parisi apporte une contribution essentielle à cette question. Si sa rigoureuse ambition théorique le rend exigeant envers l’attention du lecteur, il récompense cette dernière en ouvrant des perspectives réellement suggestives quant aux implications politiques de nos subjectivités computationnelles[23]. Mais ce n’est là qu’une seule face d’un phénomène bien plus complexe. Le cas extrême de cet embrigadement de la computation dans le technocapitalisme – le trading automatisé à haute vitesse – indique lui-même, par ses périodiques effondrements incontrôlables, que quelque chose lui résiste depuis l’intérieur de la computation elle-même, quelque chose qu’on peut faire relever du « hasard », mais qui participe en fait d’un autre rapport à articuler entre computation et subjectivation. Comme le précisait Félix Guattari en commentant un ouvrage d’un des grands pionniers sur ces questions (Pierre Lévy), « il ne s’agit pas ici de conférer une “âme” à la machine à la manière de l’animisme naïf, mais de la nécessité de reconnaître qu’il y a « plus » dans la machine que dans de simples interactions et rétroactions systémiques »[24].

Luciana Parisi s’appuie sur les travaux du mathématicien Gregory Chaitin pour suggérer la présence irréductible d’un incomputable généré par la computation elle-même. Elle invite à y reconnaître une forme de pensée (de « subjectivation » ?) propre à la computation – une pensée alien que nous devrions apprendre à identifier comme telle pour enrichir nos propres conceptions de ce que penser veut dire. Le computationnel proposerait alors à nos subjectivités une forme d’altérité – comparable à l’altérité culturelle qu’un habitant de Grenoble peut découvrir en lisant des livres d’ethnographie consacrés aux populations aborigènes amazoniennes ou australiennes, comparable à ce que la modernité a exclu au titre de « la folie »[25]. Le défi du computationnel serait alors de reconnaître certains moments de « fêlure » sans les réduire à de la failure (échecs, ratés, erreurs), mais d’y repérer des brèches, des interstices par où accéder à d’autres formes de pensée.

 

Computer à l’erre numérique

La notion de « subjectivité » émerge en effet moins d’une différence ontologique que d’une affaire de reconnaissance mutuelle : est « sujet » ce qui est reconnu comme sujet par une entité reconnue comme sujet[26]. Depuis les spéculations sur l’automate mental au XVIIe siècle jusqu’au machine learning actuel, en passant par le géomètre Velasquez et la machine de Turing, nos appareils de calculs et de communication ont certes multiplié les courts-circuits, permettant d’accélérer et de faciliter l’accomplissement de tâches en « mettant l’humain hors-circuit » (comme le théorise Vilém Flusser), mais ils ne l’ont fait qu’en générant de nouveaux circuits qui étendaient ailleurs la circulation d’information électrifiée (et de signification électrisée).

Ce que suggère la réflexion de Luciana Paris, c’est que cet ailleurs est toujours intrinsèquement erratique : alors même qu’il semble emprisonner la pensée dans la répétition automatique du même, le computationnel contient nécessairement une plus-value informationnelle qui dépasse toujours les limites et les contraintes qui ont régi sa programmation. Ce sont non seulement les subjectivités humaines (des programmeurs) qui introduisent un fantôme humain dans nos machines de computation : la computation automatique est le lieu d’émergence aléatoire d’un plus-de-sens erratique dont nous pouvons nous inspirer pour sortir des limites de nos subjectivités humaines-trop-humaines (parce que socialisées, donc soumises à des effets de domination, d’aveuglement, de stéréotypie et d’idéologie).

Reconnaître une forme de subjectivité non-humaine aux machines, pour découvrir une altérité culturelle interne à notre modernité technoscientifique, serait alors peut-être un moyen, non de remplacer nos subjectivités humaines, mais de les complémenter et de les enrichir. Ce qui fait la « bêtise » propre des machines – leur tâtonnement systématique parce que indiscriminé et erratique – pourrait bien soutenir et nourrir une dimension précieuse et fondamentale de la pensée humaine.

Cette forme ultime de subjectivité computationnelle invite à placer l’avenir sous les auspices d’une erre numérique – en remobilisant les « lignes d’erre » cartographiées par Fernand Deligny dans sa cohabitation attentionnée avec de jeunes autistes. Loin de se résumer à l’aliénation répétitive des gestes strictement standardisés par le capitalisme industriel, c’est à nous qu’il appartient de faire de l’erre numérique une occasion d’explorations déroutantes, de dérivations insoupçonnées, de détournements improgrammables, de computations incomputables, capables d’emporter le technocapitalisme hors des contraintes qu’il impose aujourd’hui à nos subjectivations. Plus que dans la « folie » (fût-elle renommée « psychose », « autisme » ou « schizophrénie »), c’est vers l’horizon d’une subjectivation artistique que pointe cette fuite du computationnel, loin du massif homogénéisateur de l’infrastructure commune, vers un erratisme qui demande toujours d’être réapproprié par un effort de pensée curieux d’altérité et de singularisation.

 

Cultiver l’erratique

Une telle erre numérique n’est envisageable qu’au prix de trois redécoupages aux conséquences multiples. Le premier pousse à désindividualiser notre conception des sujets humains pour nous rendre davantage attentifs aux façons dont nos subjectivités sont déjà (voire ont toujours été) diffuses, réseautées, rhizomiques ou mycéliennes, à la fois pré-individuelles et trans-individuelles. Ce premier redécoupage met en question la séparation qui paraît fonder les sujets humains en isolant un intérieur d’un extérieur, un esprit de son environnement, un organisme de son milieu, un terme de la relation qui le constitue.

Le second redécoupage, qui renégocie constamment les limites mouvantes de nos individuations, concerne des distinctions forcément graduées à opérer quant à la fiabilité des circuits auxquels on est branché : sur qui et sur quoi puis-je compter en cas de besoin (et nos modes de vie actuels font que j’ai toujours besoin de multitudes de coopérateurs) ? S’il est souvent difficile d’identifier des ennemis, il est vital de reconnaître ses amis. La fiabilité d’un circuit n’est pas proportionnelle à sa longueur : les habitants de Fukushima sont conduits à faire plus confiance à la Criirad française qu’au japonais Tepco. En temps de crise, la longueur d’un circuit l’expose toutefois à davantage de fragilité.

Le troisième redécoupage tient à ce qu’on pourrait appeler la tolérance d’erre présentée par les systèmes dont on fait partie. Le vieil adage errare humanum est y retrouve de nouvelles couleurs, non plus pour opposer les « erreurs » humaines à la régularité métronomique de machines, mais pour reconnaître les vertus exploratrices des lignes d’erre. L’erratique, dont il est essentiel de reconnaître l’importance dans nos puissances de pensée[27], excède radicalement l’erroné, auquel tendent à le réduire des évaluations étroitement orientées par la « culture du résultat ». Les cultures numériques devront apprendre à cultiver l’erratique.

 

Penser différemment, estimer autrement

Les dynamiques de compétition effrénée actuellement imposées par le technocapitalisme néolibéral court-circuitent nos subjectivités, à la fois en les écrasant sous une surcharge de stimulations et en les alignant sur les standardisations du winner-take-all. Au culte militaire du gagnant, l’erre numérique devra apprendre à préférer la tendresse amusée pour les crapauds fous. Il est humain d’errer pour voir si l’herbe n’est pas plus verte de l’autre côté de la colline. Un avenir soutenable favorisera sans doute l’économie des circuits courts pour le transport des biens matériels, mais l’erre des circuits longs pour l’inter-pollinisation intellectuelle.

L’erre est au cœur de la computation dans la mesure où celle-ci relève d’une force d’abstraction. Toute pensée doit s’arracher au donné qui s’impose à elle comme une évidence : tout crapaud pensant s’abstrait de son milieu lorsqu’il franchit la crête de la colline. Et pourtant, sous la dynamique compétitive de la modernité capitaliste, cette force de l’abstraction en est arrivée à saper les attachements qui nourrissent nos vies biologiques et mentales. Si, comme le relevait David M. Berry, les subjectivités computationnelles constituent l’objet principal de nos institutions d’éducation supérieure, leur formation doit nous apprendre à discerner, au sein de tous les possibles abstraitement ouverts par le numérique, quels circuits sont concrètement soutenables et réellement nourrissants.

Si penser (putare), c’est toujours penser-ensemble (com-putare), c’est aussi toujours un peu penser différemment (ou « penser-à-part », en circuit-autre, comme le pressentait Charles Tiphaigne) – c’est-à-dire penser erratiquement pour sortir des chemins trop bien battus, ou encore estimer-autrement pour maintenir une pluralité de systèmes de valeurs. Le défi des subjectivations computationnelles est de penser avec et différemment des autres humains, des autres animaux, des autres organismes, des autres machines – en tissant des relations qui nous subjectivent à travers les élans de l’abstraction aussi bien qu’à travers le soin des attachements qui nous lient à ce milieu fait d’autres que nous.

 

 

[1] Un grand merci à Marie Lechner pour les multiples références dont sa tête chercheuse a nourri les lectures sur lesquelles est appuyé cet article. Je remercie également Dominique Boullier, Emmanuel Guez, Valérian Guillier, Anthony Masure, les contributeurs à ce dossier, les compagnons de Multitudes et les complices archéologues des media (http://www.mediamediums.net/fr et http://pamal.org/) pour leur contribution à cette réflexion.

[2] Voir par exemple Evgeny Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, Limoges, FYP Editions, 2014, ainsi que l’entretien donné à Culture Mobile : http://www.culturemobile.net/visions/evgeny-morozov-contre-internet-centrisme.

[3] Benjamin Bratton, The Stack: On Software and Sovereignty, Cambridge MA, MIT Press, 2016 ; voir aussi l’article « The Black Stack » publié sur e-flux en 2014 : http://www.e-flux.com/journal/the-black-stack/.

[4] Voir Richard Maxwell & Toby Miller, Greening the Media, Oxford University Press, 2012, ainsi que Jussi Parikka, A Geology of Media, Minneapolis, University of Minnesota Press, 2014.

[5] Voir Andrew Blum, Tubes. A Journey to the Center of the Internet, New York, HarperCollins, 2012; Keller Easterling, Extrastatecraft : The Power of Infrastructure Space, London, Verso, 2014 ; Nicole Starosielski, The Undersea Network, Durham, Duke University Press, 2015 ; Tung-Hui Hu, A Prehistory of the Cloud, 2015, Cambridge MA, MIT Press, 2015.

[6] Il est frappant de relire aujourd’hui un texte comme Qu’est-ce que le virtuel ? de Pierre Lévy (Paris, La Découverte, 1995), qui n’a pas pris une ride

[7] Felix Guattari, « La production de subjectivité », Chimères, 50, été 2003, p. 43-61.

[8] Voir Cornélius Catoriadis, L’institution imaginaire de la société, Paris, Seuil, 1975.

[9] Cet article a récemment été traduit par Emmanuel Guez et Frédérique Vargos, avec une introduction présentant au mieux les enjeux énormes de la pensée de Kittler dans les problématiques actuelles, dans Friedrich Kittler Mode protégé, Dijon, Les Presses du réel, 2015.

[10] Voir le livre très synthétique et éclairant à ce sujet de Frank Pasquale, Black Box Society. Les algorithmes secrets qui contrôlent l’économie et l’information, Limoges, FYP Editions, 2015.

[11] Vilém Flusser, La civilisation des médias, Belval, Circé, 2006. Le titre de l’édition portugaise de Pour une philosophie de la photographie (Belval, Circé, 2004) se présentait comme philosophie de la boîte noire.

[12] Voir sur ce point le dossier « Nouvelles luttes de classes sur le web » publié dans le n° 54 de Multitudes (hiver 2014).

[13] Franco Berardi, Tueries. Forcenés et suicidaires à l’ère du capitalisme absolu, Montréal, Lux, 2016.

[14] Jessica Pykett, Brain Culture. Shaping Policy through Neuroscience, Bristol, Policy Press, 2015.

[15] Jeffrey Sconce, Haunted Media: Electronic Presence from Telegraphy to Television, Durham, Duke University Press, 2000 ; Mireille Berton, Le corps nerveux des spectateurs. Cinéma et sciences du psychisme autour de 1900, Lausanne, L’âge d’homme, 2015.

[16] Jean Potocki, Le Manuscrit trouvé à Saragosse, éd. de Fr. Rosset et D. Triaire, Paris, GF, 2008, 2 vol.

[17] danah boyd, It’s Complicated. The Social Lives of Networked Teens, Yale University Press, 2015.

[18] Andy Clark, Supersizing the Mind. Embodiment, Action and Cognitive Extension, New York, Oxford UP, 2011, p. 219 et 82. Voir aussi Natural-Born Cyborgs: Minds, Technologies and the Future of Human Intelligence, New York, Oxford UP, 2003.

[19] Katherine Hayles, « Non-conscient cognitif et algorithme de trading automatisé » in Claire Larsonneur et al., Le sujet digital, Dijon, Les Presses du réel, 2015, p. 20-41. Voir aussi, pour de belles analyses sur des sujets mitoyens, Mark B. N. Hansen, « Living (with) Technical Time », Theory, Culture & Society 2009, vol. 26 (2-3), p. 294-315 & Erich Hörl, « A Thousand Ecologies : The Process of Cybernetization and General Ecology » in  The Whole Earth. California and the Disappearance of the Outside, (D. Diederichsen and A. Franke (ed.), Berlin, Sternberg Press, 2013, p. 121-130.

[20] Dominique Cardon, À quoi rêvent les algorithmes ?, Paris, Seuil, 2015.

[21] Marcel O’Gorman, « Introduction à la démence digitale », in Le sujet digital, op. cit., p. 128-149. Voir aussi dans le même volume la passionnante réflexion d’Eric Méchoulan sur la notion d’archive : « Organisation des archives et métadonnées dans des contextes hypermnésiques », p. 168-183.

[22] Écouter la passionnante conférence de Marie Lechner sur « Les bots », disponible sur le site de Média Médiums : http://www.mediamediums.net/fr/seminar.

[23] Un développement plus approfondi des thèses défendues ici peut être trouvé dans son ouvrage Contagious Architecture. Computation, Aesthetics, and Space, Cambridge MA, MIT Press, 2013.

[24] Félix Guattari, Qu’est-ce que l’écosophie ?, Paris, Lignes 2013, p. 287.

[25] Pour un regard anthropologique sur les usages du numérique hors de l’axe Europe-Amérique du Nord qui en domine les conceptualisations, voir le dernier numéro du Journal des Anthropologues (n° 142-143, 2015) qui, sous le titre « Marges et numériques », se demande « quelles dimensions revêt le numérique dans les espaces périphériques de la globalisation ».

[26] Voir à ce propos Jean-Michel Salanskis, « Le computationnel et le sujet » dans Le sujet digital, op. cit., p. 82-99, ainsi que Territoires du sens. Essai d’éthanalyse, Paris, Vrin 2007, et Le monde du computationnel, Paris, Encre Marine, 2011.

[27] C’est ce qu’essaie de faire depuis plusieurs années l’École erratique que fait vivre ici ou là François Deck, au fil des opportunités singulières, en marge de tout financement institutionnel.