Inconscient technologique et connaissances positionnelles

Il  existe une dimension de vide fertile qui échappe  aux paramètres  d’un monde « naturel »  ou d’un langage, du point de vue de l’expérience. Depraz et al (2000, page 133)

 

 

Cet article participe d’une tentative plus générale d’expliquer les espaces d’anticipation rencontrés dans la vie quotidienne[1]. Il cherche à expliquer comment les environnements dont nous faisons partie en arrivent à être peu à peu acceptés comme étant la seule façon d’être, puisque chaque jour ils se révèlent relativement fidèles à nos attentes (Thrift, 2000; 2003).

De tels espaces dépendent de la construction progressive d’éthologies complexes intégrant  corps et  objets ; ces éthologies devenant dépositaires des positions et juxtapositions « correctes » qui permettent aux choses d’apparaître et d’être reconnues (Siegert, 1999). On a trop souvent négligé les échanges basiques (envois et réceptions) qui composent la vie socio-technologique ainsi que le bourdonnement léger mais constant de connections et d’interconnections que ces échanges rendent possibles. Or, il devient urgent de comprendre ces interactions, surtout dans la mesure où  il me semble évident que nous nous dirigeons vers une ère toujours plus peuplée d’objets dont la raison d’être est précisément liée à une détermination de plus en plus pointue de ces fonctions d’envoi et de réception.

 

Un enracinement de l’anticipation

Cela devient d’autant plus urgent que la majeure partie de ce que nous appelons l’ordre cosmologique se réalise à travers le simple positionnement et juxtapositionnement d’actants humains et non-humains – positions et juxtapositions qui doivent être répétées inlassablement en tant qu’espaces singuliers qui acquièrent des compétences spécifiques (Weiss, 1996). A l’exception de Gell (1992), peu de travaux ont été consacrés précisément à logique infra-structurelle très puissante qui permet au monde d’apparaître sûr de lui et en capacité de maîtrise. Et pourtant ce « vide » se trouve aux sources de notre être; il  nous permet d’avoir le sentiment d’une adéquation ou inadéquation quant au fonctionnement du monde. Ces perceptions sont si fondamentales qu’il nous est difficile de les exprimer clairement ou de penser que ces  façons de faire puissent être, ou aient pu être, différentes. Or il est possible de trouver des cadrans du quatorzième siècle qui tournaient dans le sens inverse des aiguilles d’une montre (Glennie et Thrift, 2004); on lit de droite à gauche dans de nombreux pays (Goody, 1987); aux débuts de l’automobile, les sièges n’étaient pas toujours disposés deux à l’avant, deux à l’arrière; en Norvège et en Suède, faire la vaisselle à gauche ou à droite de l’évier peut instantanément donner lieu à un jugement de valeur (Linde-Larssen, 1996); etc.

En d’autres termes, nos conventions d’adressage, de ce qui va apparaître à tel endroit et de ce qui va apparaître ensuite, sont souvent arbitraires, et reposent sur des connaissances de positions et de juxtapositions – parfois tacites, mais de plus en plus systématisées – qui assurent l’infrastructure des sociétés euro-américaines. Lorsque la pratique est solidement établie et se déroule avec fluidité, sans perturbations, les règles d’adressage demeurent en arrière-plan et « la nature fictionnelle des savoirs structurels n’apparaît pas explicitement. Objets, réglages, trajets, personnes, tout semble réel, en ordre, bien comme il faut, doté d’une sorte de fixité existentielle et d’une exactitude ontologique » (Lanzara et Patriotta, 2001, p. 965). C’est précisément cette histoire anonyme des connaissances de position et de  juxtaposition que je veux explorer, connaissances à la fois familières et étranges de la façon dont les actants humains et non-humains peuvent être transportés et alignés.

Ces savoirs ne « nous » appartiennent pas, pas plus qu’ils n’appartiennent à l’environnement. Au contraire, ils ont évolué en parallèle, ce qui empêche de faire une distinction claire entre organique et inorganique ou entre personne et environnement. Comme Ingold le présente si élégamment, au sujet des conceptions de l’environnement :

 

« L’environnement des personnes n’est pas plus réductible que leur existence organique ne se résume à une pure substance moléculaire, Cet environnement n’est pas uniquement physique, et il n’est certainement pas vierge. Par exemple, le sol sur lequel je marche fait certainement partie de mon environnement mais, si je me base sur une description physique, le sol n’existe pas en tant que tel; il n’y a qu’un amas de molécules de carbone, d’azote, de silicone, etc. Comme l’explique éloquemment Reed: « ce ne sont pas les molécules découvertes par les scientifiques  mais la terre sur laquelle nous marchons et le sol que nous cultivons qui sont des repères pertinents pour nous, qui sommes des créatures intelligentes et agissantes » (Reed, 1988, page 111). Bref, l’environnement ne se confond pas avec le monde physique puisqu’il n’existe et ne signifie que dans sa relation avec les êtres qui l’habitent (Gibson, 1979, p.8).  En tant que tel, sa formation doit se comprendre de la même façon que la croissance des organismes et des personnes, en termes de propriétés d’auto-organisation dynamique de champs relationnels. » (Ingold 2001, p. 265)

 

Par conséquent, dans ce qui suit, je veux tenter de donner un aperçu des connaissances et des compétences impliquées par la position et la juxtaposition, mais je souhaite aussi aller plus loin. Je veux affirmer que ces connaissances constituent un « inconscient technologique » (Clough, 2000), dont la fonction est de façonner les corps-avec-leurs-environnements selon un ensemble d’adresses spécifiques sans l’intervention d’opérations cognitives : ce qui représente plutôt un substrat pré-personnel de corrélations garanties, de rencontres assurées et par conséquent  d’anticipations dépourvues de toute réflexion.

Par certains aspects, ce projet pourrait être considéré comme foucaldien, mais je souhaite me positionner à un niveau différent par rapport à une grande partie (mais pas la totalité)[2] du travail  effectué par Foucault. Pour utiliser une distinction qu’on emploie souvent en théorie littéraire, mon analyse portera sur la forme plutôt que sur le genre. Les connaissances que l’on peut avoir des formes ne sont habituellement pas considérées comme subjectives (bien qu’elles aient clairement des effets subjectifs) parce qu’elles n’ont pas de contenu interprétatif conséquent. Elles sont répétitives, empiriques, dépourvues d’intention. « Pour que le genre existe en tant que norme, il doit d’abord circuler comme forme, sans ontologie, mais généré par des répétitions que les sujets apprennent à lire comme une organisation inévitable » (Berlant, 2001, page 46). En retour, ces répétitions lui fournissent  intelligibilité et inéluctabilité.  « A mesure que le sujet effectue sa  structuration, le monde lui promet que sa conformité sera appréciée et reflétée dans le social, de sorte qu’une ligne de conduite qui semble émaner du sujet peut rester l’indice général de clarté quand il n’y en a pas d’autre » (page 50). Si l’on veut, ces répétitions sont l’équivalent des « paratextes » de Genette (1999), ou des « images phatiques » de Lury (1999): les moyens par lesquels les sens sont synchronisés (et « synchorisés ») pour que la pratique puisse se réaliser.

Bien sûr, pour produire des répétitions efficaces et des cohérences cohérentes, les  connaissances relatives à la forme ont besoin d’un vaste dispositif: dessins, textes, nombres, symboles, prose, statistiques, tableaux, graphiques, cartes — tout ce qui permet d’établir des séquences et de rendre possible la pratique. L’infrastructure, précisément, doit être performative pour devenir répétitive de manière fiable. La répétition est à la fois un accomplissement et une méthode pour y arriver.

Pour résumer, le sujet principal de cet article touche aux conditions fondamentales de la vie. Il s’attache notamment à examiner le style des répétitions observables à n’importe quel moment dans l’histoire, ces automatismes animés (Gehlen, 1980) qui  constituent la base fixe des pratiques.Toutefois, bien que j’utilise le mot d’automatismes, il ne faudrait pas penser que ces répétitions sont arbitraires. Elles ne sont pas non plus spontanées. Au contraire,  elles ont été mises en mouvement et c’est leur élan, ainsi qu’une grande part d’improvisation, qui maintient leur stabilité. Je cherche à montrer que nous assistons actuellement à un changement dans les conditions de base de l’existence, à une transformation de la « structure atomique sociale », qui,  à mesure qu’une totale  standardisation de l’espace s’impose, est en train de passer d’un modèle à un autre, dans un processus très semblable dans sa portée et ses effets à celui de la standardisation du temps au XIXe siècle. D’autres penseurs, notamment Virilio et Derrida (plus particulièrement dans ses derniers écrits), ont tenté de prendre en compte les changements intervenus dans ces conditions de vie. Mais, comme on le verra, je l’espère, je prendrai un angle d’attaque quelque peu différent.

Je veux en effet porter mes recherches sur quelques-unes des connaissances-clés en termes de position et de juxtaposition, qui constituent l’« inconscient technologique »[3] et explorer les modalités de leur transformation actuelle pour voir de quelle manière celle-ci  produit un nouveau mode d’apparition du monde. A cette fin, la suite de l’article se divise en trois parties. La première partie propose un aperçu historique de la façon dont un très petit nombre de modèles de position et de juxtaposition ont été transformés en une « structure atomique » produisant une variété spécifique d’inconscient technologique dotée de ses propres formes d’obligation et de fascination. Une telle histoire est nécessairement très limitée  mais donne, je l’espère, la mesure du vaste programme de recherche qui s’ouvre à nous. Dans la deuxième partie de cet article, je souhaite démontrer qu’au cours de ces dernières années, la nature (ou le style) de ces modèles s’est modifié à mesure que de nouveaux modes d’adressage hyper-coordonnés ont été inventés, donnant naissance à un inconscient technologique d’un nouveau genre que nous devons saisir et comprendre. Dans la dernière partie  de cet article, je montrerai que l’influence de cet inconscient se révèle tout particulièrement dans la théorisation moderne des sciences sociales, qui envisage l’horizon événementiel d’une manière très différente de ce qui se faisait auparavant, même si cet horizon événementiel est toujours trop facilement confondu avec ce qui se passait autrefois.

 

L’adressage du monde

Dans cette partie, j’exposerai un ensemble de remarques générales afin de proposer une histoire des connaissances de position et de juxtaposition qui ont été constitués par ce savoir-même. Étant donné l’étendue potentielle du sujet abordé, une approche aussi sélective semble nécessaire. Afin de réduire davantage encore l’angle d’approche de cette partie, je me pencherai sur une seule de ces connaissances (sans doute, toutefois, la plus importante), celle de la séquence temporelle, séquence qui est à son tour la garantie d’une répétition ordonnée et garantie.

Un grand nombre d’institutions ont généré des connaissances de séquence temporelle, les exigences des unes influençant celles des autres.  Parmi ces institutions, le transport fut sans doute la plus importante. Le problème de l’approvisionnement de grandes villes comme Paris et Londres entraîna le besoin de développer des moyens de coordonner les transports routiers par l’établissement, par exemple, de grilles horaires : un chronométrage précis des jours de voyage fut mis en place très tôt. Ainsi, dans l’Angleterre de la reine Elizabeth I, les receveurs des postes notaient l’heure à laquelle le courrier était reçu et distribué (Brayshay et autres, 1998), ce qui constituait déjà des quasi-horaires. Bien que des publications anciennes comme The Carriers Cosmographie (1637) ou The Present State of London (1681) aient déjà présenté des informations sur les horaires, les premiers tableaux d’horaires nationaux semblent avoir été inventés plus tard. Par exemple, en 1715 le Merchants and Traders Necessary Companion (le Guide indispensable des marchands et commerçants) proposait un répertoire complet de plus de 600 services de coursiers et de diligences par semaine au départ et en direction de Londres. Ces horaires proto-nationaux sont les précurseurs des horaires de trains et de bus du XIXe siècle, qui répandirent la connaissance des horaires à travers tous les échelons de la société, et, à l’occasion des déplacements pendulaires, transformèrent la ville en une immense grille-horaire.[4]

Ces développements dans les transports entraînèrent à leur tour d’autres besoins en termes d’ordre séquentiel, dont le plus important fut probablement le développement des industries hôtelières et de vente au détail. Des auberges et des tavernes, souvent de style relativement uniforme, furent construites le long des parcours des diligences, dans l’objectif de déplacer des corps d’un endroit à un autre. La fin du XVIIIe siècle vit la naissance des hôtels : l’Hôtel Henri IV, par exemple, comportant 60 chambres, fut construit à Nantes en 1788 pour un coût total de 17 500 livres, une somme d’argent énorme pour l’époque. En 1794, le premier hôtel d’Amérique du Nord –un édifice construit spécifiquement pour servir d’hôtel – fut construit à New-York, le City Hotel, avec 70 chambres. « Beaucoup d’autres hôtels similaires furent construits dans les autres villes les années suivantes, mais ce n’est qu’en 1829 que le premier hôtel quatre étoiles, le Tremont House, doté de 170 chambres, fut construit à Boston. Le Trémont offrait de nouveaux services comme des chambres privées avec verrou, savon et eau, des grooms et un restaurant français » (Gray et Liguori, 1990, page 5). L’essor du tourisme au XIXe et au XXe siècle entraîna une multiplication des hôtels et motels, et l’émergence de nouvelles techniques de séquençage –cahiers de réservation, tableaux noirs coulissants, casiers. Avec le passage à l’informatique dans les années 60 et 70, la plupart de ces systèmes furent automatisés.

Le commerce de détail connut des développements similaires. La multiplication et la diversification des boutiques, puis l’essor des grands magasins au XVIIe siècle et au cours du XIXe et du XXe siècles (Glennie et Thrift, 1996) créa le besoin de connaître la séquence des événements et de développer les outils qui, depuis les listes des horaires de livraison jusqu’aux cahiers de commandes, permettaient de gérer ces séquences. Tous ces éléments existent toujours, dans les complexes chaînes d’approvisionnement actuelles, mais sous forme automatisée.

Tous ces développements se retrouvaient à l’échelle quotidienne. La coordination individuelle dépendait de plus en plus des horaires qui entraînèrent le développement de divers outils textuels dès le XVIIIe siècle. Par exemple, le journal intime était, dans une certaine mesure, une version textuelle de l’horloge, une manière de quadriller l’existence au travers d’une narration calibrée avec  l’obligation de remplir d’observations chaque page datée. En outre, le journal intime permettait d’accroître la capacité à observer le quotidien et de le transcrire en termes séquentiels, car un événement dans tout son déroulement pouvait être noté de manière systématique (Amin et Thrift, 2002). Le journal intime allait de pair avec d’autres objets de compréhension textuelle, par exemple, les bloc-notes, les comptes-rendus faits par les commis et l’usage de la sténographie (« tachygraphie » ou système d’écriture rapide) produisait une compréhension textuelle très proche de celle du présent, qui, bien sûr, commence à générer une autre forme de présent, plus dense et ouverte sur l’extérieur, grâce aux nouvelles possibilités dont nous disposons aujourd’hui.

Outre ces développements d’ordre général, de nouvelles connaissances de position et de juxtaposition plus spécialisées émergèrent. Bien qu’il existe de nombreuses connaissances de ce type, les plus importantes peut-être et les plus négligées sont celles qui ont été produites par les armées et la marine (et, plus tard, les forces de l’air) (Giedion, 1998 {1948}). On fait habituellement remonter la création du terme logistique dans son acception moderne à l’Art de la guerre de Jomini (1992, {1836}), qui instaura la « logistique » comme l’une des six branches de l’« art militaire ». Bien entendu, la logistique existait depuis longtemps déjà ; les armées ne pouvaient pas se contenter de chercher leur nourriture sur place et devaient se procurer des provisions, d’autant qu’une armée en marche pouvait s’étaler sur plusieurs kilomètres. Mais il est vrai cependant que la logistique moderne s’est probablement constituée à cette époque, à l’épreuve de la Guerre Civile états-unienne, au moment où la révolution industrielle, la taille des espaces impliqués dans les déplacements, le développement massif des technologies de transport (le chemin de fer notamment), ainsi que le grand nombre de blessés, rendirent indispensables la création des connaissances de séquençage complexes, afin d’approvisionner les armées en denrées de première nécessité, en eau par exemple, sans parler des munitions. Il y avait même un contrôle du trafic routier très strict. A l’époque de la Première Guerre Mondiale, la logistique était devenue une activité majeure. Par exemple, l’armée britannique expédia 5 253 538 tonnes de munitions (dont 170 millions d’obus) en France (et 5 438 602 tonnes de fourrage pour les animaux) (Huston, 1966 ; Mackinsey, 1989 ; Thompson 1991).

A l’instar de la vie civile, la vie quotidienne militaire était dépendante de l’exactitude de la position et de la juxtaposition, en particulier avec le développement des manœuvres militaires et, parallèlement, la rigidité des positions du corps, qui commencèrent à occuper de plus en plus de temps au sein de la plupart des armées (Holmes, 2001) : certains des exercices militaires développés par Maurice d’Orange et inspirés par d’anciens traités comme ceux d’Aelianus et Vegietus, qui furent adoptés dans toute l’Europe comme modèles et dans un certain nombre de manuels, peuvent être considérés comme les premières études du mouvement-dans-le-temps, du fait de leur attention exigeante en termes d’exactitude temporelle.

 

« Après Aelianus, tout reposait sur l’idée d’un entraînement des soldats à se mouvoir simultanément en réponse à des mots ordres stylisés. Aelianus avait proposé une liste de 22 « mots d’ordre » utilisés par les Macédoniens, mais lorsque le cousin et l’aide de camp de Maurice d’Orange, Johann de Nassau, analysa les mouvements requis pour manipuler une platine à mèche, il recensa 42 postures différentes, auxquelles il assigna un mot d’ordre. Un exercice plus simple, plus proche des manœuvres macédoniennes, fut également adapté aux lanciers qui devaient protéger les arquebusiers des attaques de la cavalerie pendant qu’ils rechargeaient leurs fusils, ce qui pouvait être assez long. Les fantassins étaient donc très importants pour ces raisons pratiques. L’importance pratique d’une telle attention aux détails était immense. En principe, et plus étonnamment, en pratique également, les soldats devenaient capables de se déplacer ensemble tout en exécutant les tâches nécessaires pour charger, viser et tirer avec leurs fusils.

Les salves étaient ainsi tirées plus rapidement, et il y avait beaucoup moins de coups perdus, puisque tous les soldats agissaient de concert et réagissaient au signal donné par le commandant. Les exercices, répétés inlassablement pendant le temps d’entraînement, rendirent les mouvements des troupes presque automatiques et peu susceptibles d’être dérangés par les combats. On pouvait tirer plus de balles en un temps réduit, ce qui constituait un avantage considérable et décisif face à des troupes non-entraînées. Tel était l’objectif de Maurice d’Orange et de son état-major, et une fois que le succès de sa méthode devint évident, celle-ci fut très rapidement adoptée par les autres armées européennes » (Mc Neill, 1995, pages 128-129).

 

Ainsi, lorsque Maurice d’Orange arriva en Angleterre en 1688, il se trouva face à « une petite armée avec une expérience considérable de service actif, suffisamment armée et équipée, et parfaitement formée à un ensemble de manœuvres et de tactiques aussi poussées que celles pratiquées en Europe » (Houlding, 1981, page 172). Grâce à la diffusion d’ouvrages militaires et plus particulièrement de livres d’exercices illustrés comme Les Principes des mouvements militaires de Dunda, la pratique des exercices et des manœuvres militaires devint à la fois une pratique de séquençage corporel soigneusement codifiée à travers toute l’Europe, et un élément crucial des combats (Holmes, 2001).[5]

A la même époque, l’armée commença à faire faire aux soldats de plus en plus de tâches afin de rentabiliser leur temps, comme par exemple, construire des fortifications : creuser des tranchées, surélever des talus, construire des abris et des têtes de ponts, etc. Cette approche était avant tout d’ordre pratique et on réalisa que « les mathématiques et la géométrie étudiées par les ingénieurs étaient des matières trop abstraites ; en effet, il n’était pas nécessaire de savoir manipuler équerre et compas, ou de résoudre des problèmes ou des calculs complexes, pour apprendre à construire les éléments de défenses nécessaires pour protéger efficacement un poste militaire » (Houlding, 1981, page 224).Les conséquences étaient clairement perceptibles : des corps humains dirigés par des ordres et impliqués principalement dans ce qu’on commençait à appeler des activités logistiques.

 

« L’oisiveté, en effet, était bannie de la vie militaire. C’était une rupture majeure avec l’usage antérieur, puisque les soldats passaient énormément de temps à attendre, et, lorsqu’ils étaient laissés sans surveillance, ils chassaient l’ennui en s’adonnant à la beuverie et autres formes de dissipations. La débauche ne fut pas totalement bannie sous le régime du prince Maurice et de ses imitateurs, mais elle fut généralement reléguée aux périodes de repos et de permission. » (Mc Neill, 1995, pages 129-130)

 

Bien qu’il s’agisse seulement de notes, dans le but d’écrire une histoire générale des connaissances de position et de juxtaposition – ce que Gille (1986) appelle la « macération et la purification » de l’espace par le biais d’une culture de l’intervalle  – il est clair que le but de ces pratiques était de produire une configuration générale à partir d’un séquençage exact et fiable qui pourrait s’appliquer sans anicroches dans les temps à venir (comme pour appuyer cet argument, certains hôtels proposent de réserver une chambre huit ans à l’avance). Tout serait au bon endroit au bon moment.

Ce processus de macération et de purification se remarque très clairement dans le développement du système d’adressage moderne. L’histoire de l’adressage est très longue, dont il suffira de prendre comme seul exemple l’Angleterre. Il semble que les rues y aient été nommées dès qu’il y eut des villes. Par exemple, on connaît une douzaine de noms de rues pour la ville de Londres à l’époque saxonne. Bien que les grandes demeures, les églises, les auberges et autres monuments comparables aient porté un nom dès l’époque médiévale, on peut supposer que les autres habitations pouvaient être localisés à l’aide des noms de rue, et lieux notables servant de points de repère – ainsi probablement qu’en demandant son chemin. Des systèmes d’adressage plus organisés (plus particulièrement le numérotage des maisons) semblent avoir émergé grâce à un système de livraison plus organisé. Le numérotage semble avoir été effectué par les bureaux de poste et les responsables des annuaires civils. Par exemple, à Bristol en 1775, le premier annuaire de Sketchley constitue la première tentative de numéroter toutes les maisons, mais, ce qui est révélateur, il parut nécessaire d’expliquer la façon de la faire. Bien que nous ne puissions en être sûrs, il parait assez improbable que les maisons aient affiché un numéro à cette époque : les livraisons étaient encore faites aux propriétaires identifiés. Même au début du XIXe siècle, le numérotage était encore rare et on parvenait cependant à garder un certain ordre (pour les listes militaires, les circonscriptions, etc.) même en l’absence de numérotage explicite. La confusion entre le nom, le numéro, etc. persista pendant longtemps, aussi étonnant que cela puisse paraître, renforcé par la connaissance tacite des routes et des lieux que possédaient les personnes chargées de livrer le courrier et les colis.

Mais, l’échelle du système postal de masse, qui augmentait de manière significative (et plus particulièrement les courriers commerciaux, qui représentaient près de 80% du volume des envois), entraîna peu à peu l’apparition du tri mécanisé dans les années 1950, puis la création des codes postaux et des codes « zip » dans les années 60 (Rhind, 2002). L’exemple des Etats-Unis est le plus parlant à cet égard. Les codes postaux (ZIP pour Zone Improvement Plan en anglais, « Plan d’Amélioration du découpage en Zones ») furent crées par les services postaux états-uniens en 1963. En juillet 1963, un code à cinq chiffres fut attribué pour chaque adresse dans tout le pays, correspondant à la région (le premier chiffre), aux autres subdivisons (les deux chiffres suivants) et au bureau de poste (les deux derniers chiffres). On remarque que contrairement au code postal britannique, il ne semble pas y avoir eu de carte des codes zip. Puis en 1983, avec le début du vidéocodage, et la reconnaissance optique des codes-barres, on introduisit quatre nouveaux chiffres (le code zip+4) afin de localiser une adresse à l’échelle d’une « zone de distribution » (par exemple l’étage d’un immeuble de bureaux). De nos jours, cette forme d’adressage est bien sûr devenue une industrie fleurissante, grâce aux systèmes du marketing de masse, et intimement liée à la catégorisation géo-démographique de la population, ce qui indique que de nouvelles formes commerciales de recensement deviennent aussi importantes que celles de l’État (Rhind 1999).

On pourrait penser que l’argumentation précédente – ainsi que celle qui va suivre – semblent s’apparenter à une forme de déterminisme technologique « whig » (centriste), mais on aurait tort. Le jeu récurrent des connaissances de séquençage devrait être davantage perçu comme une collection  (ou mieux encore comme une série) de médiations technologiques qui se renouvellent constamment et permettent au collectif de se stabiliser afin que le séquençage soit possible (Mackenzie, 2002, Simondon, 1992). Cela dit, il faut noter que tout ne fonctionne pas et que tout n’arrive pas en temps voulu, pour le dire gentiment. Mais ces cas de manquements ont pu recevoir une valeur formatrice (Lowe et Schaffer, 2000). Ainsi, la connaissance de l’erreur et du retard s’est trouvée contribuer à son tour aux connaissances de séquençage. Par exemple, les formes modernes de séquençage comportent habituellement les files d’attente (et le développement de technologies associées à cette attente, par exemple, prendre un ticket pour signaler sa position dans une file électronique) et, de manière révélatrice, l’attente elle-même a donné lieu à un grand nombre de connaissances basées sur la théorie des files d’attente et d’autres développements similaires. Ainsi, le fait d’attendre peut lui-même devenir source de bénéfices et apporter d’autres types d’avantages (Mackenzie, 2002).

 

Le ré-adressage du monde

Toutefois, dans le monde qui se construit depuis les années 60, les choses ont changé de nature. Ce que nous pouvons observer, c’est une évolution des nouveaux moyens d’adressage du monde, fondée sur ce qu’on appelle souvent un système de suivi (track-and-trace). Ce modèle suppose une standardisation préalable de l’espace, standardisation qui est historiquement très récente, du moins dans ses développements assez complexes et étendus pour prendre pleinement en compte les variations de chaque milieu. On peut dire que ces nouveaux modes d’adressage du monde ont émergé de trois phénomènes, différents mais liés, qui, pris ensemble, fournissent un arrière-plan exhaustivement traité, mis à jour en permanence, et qui rend désormais calculables toutes les séquences. Le premier phénomène est la disponibilité désormais générale d’un réseau de technologies qui peuvent en temps réel suivre des positions : lasers, nouvelles technologies de l’information, GPS (Global-Positioning System), etc.Le second phénomène est l’émergence d’une série de connaissances de séquences, formalisés et capables d’intégration, tirés de l’application généralisée à champs très divers de modèles issus de la logistique. En tant que domaine de recherche plutôt qu’en tant qu’« art militaire », la logistique remonte aux années 1940 et aux applications de divers modèles opérationnels pour résoudre des problèmes d’inventaire (stock) et de distribution (flux), particulièrement dans le contexte des besoins suscités par la seconde guerre mondiale. Au fil des années 60, la logistique a davantage été rattachée aux  systèmes d’ingénierie et à l’éventail de technologies qui leur était associées : algorigramme (flow charts), analyses de cycle de vie, analyse de réseaux, y compris les outils de planification comme la méthode PERT (Technique d’évaluation et d’examen de programmes) ou celle du chemin critique (CPA), etc. Plus récemment, le domaine de la logistique s’est encore élargi au point de devenir aux yeux de tous un élément intégré à l’essence même de la production, plutôt que quelque chose qui en découle (comme la « distribution »). En retour, cela a conduit à de nouveaux modes de production comme la fabrication distribuée. Le troisième phénomène est l’élaboration de nouveaux modes de comptabilité  qui ont ouvert de nouvelles possibilités de calcul (Thrift et French, 2002). Par exemple, les tableurs ont permis de faire toutes sortes de calculs sur des périodes futures, calculs qui auraient été difficiles, chronophages ou plus simplement très coûteux auparavant.

Ces trois phénomènes ont produit en retour trois résultats étroitement liés. Le premier est un bouleversement majeur de la géographie du calcul. Alors que la computation se faisait auparavant dans des centres de calcul, sur des sites définis, elle se métamorphose aujourd’hui grâce aux technologies sans fil.
La computation est en train de se déplacer vers le monde qui l’environne puisqu’il devient désormais possible de connecter toutes sortes d’activités computationnelles (Dertouzos, 2001). Une série de changements est à l’origine de ce développement. Tout d’abord, la géographie de la computation se métamorphose. Autrefois fondée sur des entités centrées et stables, localisées sur des sites définis, elle s’affranchit, grâce aux technologies sans-fil, pour aller occuper tous les éléments qui composent l’environnement. De surcroît, les utilisateurs peuvent désormais être mobiles. La computation peut alors devenir un élément de notre environnement quotidien puisqu’il n’y a plus de restrictions sur l’emplacement des appareils computationnels : ils seront partout, se déplaçant en permanence et s’adaptant aux réseaux de pair-à-pair. Nous vivons l’avènement d’une computation « ubiquitaire », « omniprésente » et « pénétrante ». Par conséquent, la computation dépendra de plus en plus du contexte. Cela signifie à la fois que les appareils deviendront plus conscients de leur emplacement, sachant où ils sont par rapport aux utilisateurs d’autres appareils, et qu’ils pourront interagir, dialoguer, et s’adapter aux utilisateurs d’autres appareils.Autrement dit, la computation – entendue comme un réseau d’appareils – pourra de mieux en mieux s’adapter à la situation (Lieberman et Selker, 2000).

La temporalité de la computation est en train de changer aussi. Grâce à l’accès internet illimité, l’environnement informatique pourra fonctionner en continu. Les utilisateurs seront connectés à tout instant ; il ne sera plus nécessaire  d’allumer et d’ouvrir internet. « Toujours allumé, internet sera  intégré dans la matière de nos vies » (New Scientist 2002, p.34). La computation sera une constante.

Les appareils computationnels aussi se transforment. Grâce au développement de la « computation douce », ou « grand public », grâce à une meilleure compréhension des affects et grâce aux nouvelles formes d’interface orientées vers l’homme, la computation est de plus en plus adaptée et modulée en fonction de son utilisateur. De plus en plus, la computation anticipera les besoins de l’utilisateur, faisant ainsi partie intégrante de la manière dont l’utilisateur prend des décisions, de la façon dont il décide de décider. La computation ne sera donc plus considérée comme une tâche principale, mais comme une partie auxiliaire de nombreuses pratiques différentes, comme c’est déjà le cas pour de nombreux outils ordinaires. Pour parler dans le jargon de l’industrie, les machines revêtiront l’information que vous voulez, où vous voulez (Dertouzos, 2001). De plus en plus, le postulat est que l’utilisateur sera en train de faire autre chose en même temps qu’il profite d’opérations de computation. Autrement dit, l’appareil computationnel est là pour augmenter l’attention plutôt que pour la monopoliser, comme l’illustrent les technologies « embarquées » (wearable computing).

 

« Plutôt que d’essayer d’introduire l’intelligence humaine dans l’ordinateur, ce qui est, en général, l’objectif des recherches en intelligence artificielle (AI), le but des technologies embarquées est de produire une synergie grâce à la combinaison de l’homme et de la machine, combinaison dans laquelle l’homme réalise les tâches qu’il fait mieux que l’ordinateur, pendant que l’ordinateur réalise celles qu’il fait mieux que l’homme. Sur le long terme, les technologies embarquées commencent à fonctionner comme une véritable extension de l’esprit et du corps, et ne sont plus ressenties comme des entités séparées. En réalité, l’utilisateur va s’adapter à l’équipement de la même façon que nous nous adaptons aux chaussures et aux vêtements : à tel point que, pour la plupart d’entre nous, nous nous sentirions extrêmement mal à l’aise sans eux. » (Mann, 2001, p.7)

 

La computation est également en train de devenir de plus en plus interactionnelle. Fréquemment, le but des appareils informatiques est communiquer non plus seulement avec son utilisateur (grâce à de meilleures interfaces comme les technologies embarquées), mais également de communiquer avec d’autres appareils. Par conséquent, la computation devient un système de communication dans lequel un nombre croissant  de communications se feront entre appareils.

Pour résumer, la computation déborde de plus en plus vers notre environnement, et devient un élément participant de la construction réelle de la position. En situation, cette computation deviendra une nouvelle surface d’interaction et sera aussi précisément adaptée à l’activité qu’un gant à la main. Cela ne viendra pas tout de suite et ce sera d’abord avec plus d’à-coups et d’imperfections que ne le voudraient les visionnaires, mais, à terme, la computation deviendra un arrière-plan constant de notre quotidien, elle en fera pleinement partie au lieu d’être périphérique.

Deuxième conséquence majeure : la mutation de la définition de l’adressage. De plus en plus, les adresses se déplacent avec les agents, qu’ils soient humains ou non-humains. On peut illustrer cela par quatre innovations technologiques, toutes ubiquitaires – et quoique toutes soient passées pratiquement inaperçues.

La première de ces innovations est l’humble code-barres, élément crucial dans l’histoire de la nouvelle géographie du monde, mais élément qu’on ne mentionne que rarement. Fondé sur l’alphabet Morse, le code-barres est inventé par Joseph Woodward et Bernard Silver en 1949, et breveté en 1952. Mais il ne sera vraiment utilisé qu’à partir des années 1970, en partie grâce à l’invention des lecteurs optiques scanners. En 1969, GMA et la NAFC se rencontrent pour souligner le besoin d’un « code inter-industriel pour les produits » et mettent en place un comité ad hoc chargé d’établir un code à 11 chiffres pour les produits alimentaires.[6] En 1971, ce comité devient le Conseil pour la normalisation du code-produit (Uniform Product Code Council), l’ancêtre de l’actuel Conseil pour la normalisation du code (Uniform Code Council). Le 26 Juin 1974 à 8h01 au supermarché Marsh à Troy, dans l’Ohio, le code-barres d’un paquet de dix chewing-gums de la marque Wrigley est scanné, marquant le premier usage commercial du code-barres. L’utilisation du code-barres a mis du temps à décoller au début. Fin 1976, seulement 106 magasins utilisaient le code-barres aux Etats-Unis. Mais cela devait rapidement changer. Son utilisation est stimulée à la fois par la multiplication des magasins équipés, par le développement de l’usage du code-barres en-dehors des Etats-Unis grâce à la fondation de l’EAN (European Article Numbering Association) en 1977 (devenu EAN international en 1992, signe de son développement à l’échelle mondiale), qui gère l’utilisation du code-barres en-dehors de l’Amérique du Nord avec la création de son code à 13 chiffres, et à travers l’adoption du code-barres par d’autres secteurs que l’alimentation, notamment comme moyen d’échange de données électroniques, ce qui permet d’effectuer la commande et la facturation par ordinateur dans le secteur des entrepôts industriels (Hosoya et Schaefer, 2001).Signe de élargissement de son usage, le Conseil pour la normalisation du code-produit (Uniform Product Code Council) devient tout simplement le Conseil pour la normalisation du code (Uniform Code Council).

L’UCC et l’EAN estiment qu’aujourd’hui 900 000 entreprises du monde entier, dans presque 100 pays différents, utilisent le code-barres, et que l’on scanne 5 milliards de codes-barres chaque jour. Les codes sont utilisés pour pratiquement n’importe quelle transaction. Ils sont utilisés par l’industrie du transport des marchandises  pour suivre et livrer les colis, par le secteur de la vente au détail pour faire les inventaires et moduler les prix, et par l’industrie médicale pour étiqueter les patients et enregistrer leurs informations. Ils sont aussi largement utilisés par l’armée. Par exemple, depuis 1995, le ministère de la Défense des Etats-Unis utilise des codes-barres dans ses opérations logistiques.

De nos jours, la demande est en effet tellement importante que l’on doit rallonger le code-barres. De nouvelles procédures de commerce électronique sont en cours d’élaboration. Des tentatives de normalisation mondiale des codes-barres à l’horizon 2005 sont en cours d’élaboration : les distributeurs américains espèrent être en mesure de scanner 13 chiffres à cette date, et une extension générale à 14 chiffres est prévue à l’échelle mondiale par la suite. On travaille à l’échelle mondiale également sur de nouveaux symboles adaptés à des produits de taille réduite.

Mais les codes-barres universels ne sont pas universels. Ils ne représentent en fait qu’à peu près la moitié de l’utilisation du code-barres aux Etats-Unis, où de grandes sociétés comme FedEx, UPS ou le US Postal Service ont élaboré leurs propres codes-barres pour transporter le courrier et les colis. Depuis 1982, par exemple, le US Postal Service imprime un code-barres qui indique l’adresse postale sur chaque enveloppe qui passe dans son système de traitement.

La deuxième innovation majeure qui mérite d’être commentée peut être décrite comme l’équivalent du code-barres pour l’ordinateur : l’ensemble des adresses qui permettent aux ordinateurs de communiquer entre eux. Le format de données .sig en est un bon exemple. Inventé autour de 1980, probablement sur un réseau de communication en ligne comme FidoNet, le format .sig est l’un de plusieurs systèmes d’adresse en réseau : un petit bloc de texte qui peut être attaché automatiquement à la fin d’un e-mail, et qui contient en général des informations comme l’émetteur, son titre professionnel, le nom de son entreprise, son numéro de téléphone et adresse e-mail, ainsi que diverses petites phrases au format numérique. D’abord peu utilisé, le format .sig est actuellement en passe de devenir une nouvelle forme de carte de visite électronique, qui peut intégrer des illustrations [images, graphismes]. Le format .sig a été utilisé pour produire une des plus brillantes stratégies commerciales – celle d’Hotmail, une messagerie web gratuite qui a attiré plus de 12 millions d’utilisateurs dans ses 18 premiers mois d’utilisation. Racheté par Microsoft, Hotmail compte actuellement 60 millions d’inscrits.

Troisième innovation: la carte SIM (Subscriber Information Module), dont l’usage s’est généralisé au début des années 1990, et qui est fabriquée par un petit nombre d’entreprises comme, par exemple, GEMPLUS.  La carte SIM est au cœur de l’industrie de téléphone mobile.  Petite carte qui associe le particulier au réseau auquel il est abonné, la carte SIM renferme un microprocesseur qui contient des données uniques sur l’abonné, dont son numéro de téléphone et ses codes sécurité. Elle dispose également de fonctions de stockage lui permettant de sauvegarder les numéros des contacts et les SMS. Ainsi la carte SIM fonctionne, en effet, comme une adresse mobile.

La quatrième innovation, qui pourrait bien s’avérer la plus importante en fin de compte, est la radio-étiquette (RFID). Ces étiquettes sont composées d’une micro-puce et d’une antenne, entourées de plastique. Inventées dans les années 1990, ces étiquettes recyclables peuvent être utilisées pour n’importe quelle sorte d’objet. Elles présentent l’avantage de permettre d’identifier chaque objet séparément ; ils peuvent ainsi recevoir une identité et une histoire unique, ce qui les rend très différentes des codes-barres, qui ne peuvent identifier qu’une information relativement sommaire sur des catégories d’objet (par exemple, céréales « Shredded Wheat », 3 dollars 95). En outre, les RFID, contrairement aux codes-barres, peuvent être lues à distance, par un lecteur qui ne les voit pas. La nouvelle génération de RFID propose des étiquette plus petites (souvent moins d’un millimètre de côté et un demi-millimètre d’épaisseur) et peuvent être lues à 1,5 m d’une borne automatique. Pour l’instant, ces étiquettes sont encore trop coûteuses pour connaître la même forme de diffusion (20 à 30 centimes par pièce contre 1 centime pour un code-barres), mais les choses sont en train de changer. Il y a toutes les raisons de penser que les RFID vont complètement transformer les modes de vie, et les faire évoluer d’une manière que le code-barres n’a que partiellement atteint. On s’accorde ainsi en général à dire que les RFID vont remodeler les chaînes logistiques en permettant à des objets d’être suivis en même temps qu’ils sont produits (en étiquetant tout l’inventaire et le processus d’assemblage), livrés au point de vente, et même, plus tard, jetés à la décharge (Ferguson, 2002; Financial Times 2002). Les RFID sont aussi en train d’être connectés à toutes sortes de capteurs afin de transmettre des mises à jour permanentes sur l’état des objets auxquels ils sont attachés. Et, à terme, certains espèrent pouvoir rendre ces objets dynamiques : cette possibilité est encore à l’étude en ce moment, mais l’intention est clairement de créer des objets qui puissent réagir de façon créative aux situations auxquelles ils sont confrontés en lisant toutes les autres RFID dans leur environnement immédiat.

Le résultat est l’émergence d’une éthologie caractérisée par un flux continu d’information.
Il n’est donc pas surprenant de voir par exemple qu’un certain nombre d’émetteurs de devises et de banques centrales – par exemple, la Banque Centrale Européenne (BCE) – étudient actuellement les possibilités ouvertes par les RFID. La BCE a en effet pour objectif d’implanter des RFID dans tous les billets d’euro à l’horizon 2005. Bien sûr, ces étiquettes peuvent potentiellement envahir la vie privée, puisque presque tout pourra être étiqueté –  y compris de l’argent sale, et, sans aucun doute, des êtres humains : en Floride, une entreprise a déjà développé une puce RFID passive compatible avec le tissu humain. Compte tenu, en effet, des possibilités que l’utilisation des RFID permet désormais d’envisager («Ange Gardien » et autres stratégies de surveillance similaires), l’avenir suscite de sérieuses inquiétudes.

Le troisième phénomène est le développement de ce qu’on appelle en général, dans les travaux sur la communication mobile, l’hyper-coordination et la micro-coordination (voir, par exemple, Ling et Yttri, 2002). Les innovations technologiques comme celles mentionnées plus haut permettent de pister les agents humains et non-humains en permanence, de telle sorte qu’il est possible d’obtenir des niveaux de coordination inaccessibles par le passé. L’hypercoordination est caractérisée par un contact permanent, qui permet d’être en contact continu avec les agents, et par la mise à jour permanente, qui permet de redéfinir continuellement les modalités des rendez-vous ou des livraisons à telle heure et tel lieu. Autrement dit, il est possible de coordonner et de re-coordonner à distance, et cela de manière presque continue et continuellement ajustée. L’hyper-coordination, pour sa part, offre de nouvelles possibilités pour les rencontres économiques, sociales et culturelles, la plus importante étant ce qu’on appelle souvent l’« opportunisme planifié » [planful opportunism], une forme de coordination ad hoc (Perry et al., 2001). Les rencontres peuvent être réélaborées en permanence dans une sorte de savant ballet de circonstances, autrefois réservé à des lieux de rencontre publics comme la rue (Brown et al., 2001; Kate et Aakhus, 2002).

Des sociétés de fret comme FedEx, qui transporte 3 millions de colis chaque jour et utilise 3700 camionnettes et camions, 720 avions et 47000 coursiers, sont fondées sur l’hyper-coordination. Lastminute.com, qui apparie à la demande 3,5 millions d’utilisateurs inscrits le reliquat des stocks de billets d’avion, de chambres d’hôtels, et de vacances organisées détenus par 8500 fournisseurs, ne pourrait pas exister sans l’hyper-coordination, pas plus que ne le pourraient les adolescents qui utilisent en permanence leur téléphone mobile pour donner rendez-vous à leurs amis.

Nous assistons donc à l’émergence d’une une nouvelle forme de répétition, qui permet aux choses d’apparaître d’une manière différente, associées à différentes formes de possibilités. L’application d’un ensemble de technologies et de connaissances (les deux étant indissociables entre elles) produit une forme de répétition à la fois plus contrôlée et plus ouverte, une nouvelle sorte d’empirisme erratique qui se tisse et se défait dans la recherche des moyens les plus efficaces d’utiliser le temps et l’espace à chaque moment.[7]

Ces évolutions créent, à mon avis, une nouvelle sorte de phénoménalité, incarnée, de la position et de la juxtaposition, phénoménalité qui se situe « dans le prolongement des propriétés décrites par les sciences naturelles » (Petitot et al. 1999, p.23) et qui est fondée sur la perception latente de systèmes extrêmement complexes qui imitent la vie car, dans une prophétie auto-réalisée – comme je l’ai montré – ces systèmes ultra-complexes (de communication, logistiques, etc.) structurent réellement la vie, et de plus en plus, le font en s’y adaptant. Cette nouvelle phénoménalité se met désormais à structurer la définition de l’humain en révélant des capacités « incarnées » [embodied] de communication, de mémoire et de fonctionnement collaboratif, privilégiant des formes d’interaction engagées et mobiles comme typiques de la cognition « humaine » et renvoyant, à leur tour, ce même modèle aux appareils et aux environnements qui nous entourent de façon toujours plus étroite. Dès lors, il devient possible d’entrevoir le squelette même de cet inconscient technologique, dont la forme est historiquement nouvelle. Il apparaît aujourd’hui même dans des activités ordinaires : par exemple, dans le fait jouer à des logiciels de jeux ultra-complexes qui sont de plus en plus opaque envers un fonctionnement guidé par des règles et qui dépendent d’une forme de sensibilité à – ainsi que d’une sensibilité de – certaines dynamiques d’« émergence », traduisant la mise en pratique de l’« opportunisme planifié ».

 

« Prenons par exemple l’un des titres qui a le mieux marché de la Nintendo 64, le jeu Zelda : l’Ocarina du temps de Shigeru Miyomoto. Zelda incarne le développement asymétrique des jeux interactifs à la fin des années 90. L’intrigue ne s’affranchit pas de l’univers archaïque des contes de fées : un jeune garçon, armé de sorts magiques, part délivrer une princesse. Mais en tant que système de contrôle, Zelda possède une structure incroyablement complexe, avec des centaines d’objectifs et d’énigmes interconnectés, éparpillés à travers l’immense monde virtuel du jeu. Promener le personnage est assez simple, mais arriver à comprendre ce qu’on est censé lui faire faire peut prendre des heures d’exploration, d’essais et d’erreurs. Selon les critères traditionnels du fonctionnement des jeux, Zelda donne l’impression d’être une pagaille immense : il faudrait un guide d’une centaine de pages simplement pour en comprendre les règles. Mais si l’on considère cette opacité comme un choix artistique, l’expérience est complètement différente : il s’agit d’explorer le monde et les règles de ce monde en même temps.

Pensez à ces enfants de dix ans qui se plongent volontiers dans le monde de Zelda. La difficulté à maîtriser le système n’en est pas une pour eux. Avant même d’apprendre à lire, ils étaient déjà en train de déchiffrer l’univers de l’écran : en train de chercher les liens causaux entre actions et conséquences, d’élaborer des hypothèses de travail sur les règles implicites du système. L’opinion commune dit que ces enfants sont plus doués pour résoudre des casse-têtes et plus adroits avec leurs mains que la génération « télé ». C’est certainement le cas, mais je pense que lorsque nous soulignons l’adresse avec laquelle cette génération manie un joystick, nous ratons un point important. Je pense qu’ils ont développé un autre talent, qui ressemble presque à de la patience ; ils tolèrent beaucoup mieux la perte de contrôle, ils tolèrent mieux la phase d’exploration pendant laquelle les règles ne sont pas toutes compréhensibles, lorsqu’encore peu d’objectifs clairs sont définis. Autrement dit, ils sont singulièrement équipés pour se confronter aux logiciels actuellement en train d’émerger, équipés de systèmes de contrôle plus obliques. Le travail le plus ambitieux de la création interactive de demain sera d’explorer cette tolérance, cette suspension du contrôle, sur des chemins qui nous éclairent, nous, sur des chemins bien plus ambitieux que le reliquat dégradant des princesses et des tours de magie. » (Johnson, 2001, p.176-177)

 

Conclusions: quelques réflexions sur la complication topologique

Dans ma conclusion, je souhaiterais avancer que ces nouveaux paramètres de la position et de la juxtaposition – et le nouvel horizon d’événements qui en résulte – peut en partie expliquer l’émergence d’un courant théorique spécifique dans les sciences sociales. Récemment, des auteurs comme Turner et Rojek (2001) ont plaidé en faveur d’une « économie politique solide de l’organisation sociale » capable de combattre une partie de ce qu’ils voient comme les excès d’une approche plus « décorative », approche qui se concentre sur « les révolutions esthétiques et technologiques » (p.199). Mais au moins une partie des travaux qu’ils cherchent à dénoncer sur un plan à la fois théorique et empirique me frappe par l’insistance sur la notion d’itérabilité dynamique, qui précisément cherche aussi exprimer le nouvel inconscient technologique d’un monde fondé sur des infrastructures performatives. Si c’est, même partiellement, de cela dont il s’agit – et je pense que c’est le cas – alors nous pouvons considérer que beaucoup des auteurs qui adoptent cette approche « décorative » cherchent en fait à décrire une situation historique nouvelle, ainsi que les aptitudes et compétences nécessaires pour y faire face : une nouvelle sorte d’économie politique de l’organisation sociale, si l’on veut, mais qui fonctionne à l’échelle moléculaire.

Judith Butler en est un bon exemple. Elle est connue pour son recours à la notion de performance qui problématise le corps comme « matière imaginaire » (dans laquelle le corps et le fantasme inconscient, la matière et l’image, ne peuvent être distingués). Butler « relocalise la matière de l’inconscient dans l’intervalle qui sépare les répétitions » (Clough, 2000, p.120) de sorte que, comme elle le dit :

 

« Si chaque performance se répète afin d’instituer l’effet de l’identité, alors chaque répétition demande un intervalle entre les actes, intervalle dans lequel le risque et l’excès menacent de détruire l’identité qui est en train de se constituer. L’inconscient est cet excès qui autorise et conteste chaque performance, et qui n’apparaît jamais pleinement dans la performance elle-même. » (Butler, 1991, page 28)

 

La notion de performance chez Butler suggère que la matière corporelle est dynamique, qu’elle est davantage un événement ou une affaire de temporalité. Butler emprunte ici à Derrida, et relie la compulsion inconsciente de répétition à la différance, ou répétition pure. Butler soutient ainsi que l’on devrait placer l’inconscient « à l’intérieur d’une chaîne signifiante comme instabilité de toute itérabilité » (1991, p.28). L’inconscient, par conséquent, « n’est pas dans le corps, mais dans le processus même de signification par lequel le corps va apparaître ; l’inconscient est l’interruption dans la répétition en même temps que sa compulsion, cela même que la performance cherche à nier, et cela même qui la contraint dès le début » (p.28). Ainsi, comme le dit Clough (2000, p.120), « en [repliant] l’inconscient sur la différance, Butler permet de penser un inconscient beaucoup plus large que l’inconscient freudien ou lacanien. Mais ce nouvel examen de l’inconscient suppose la déconstruction de la configuration psychanalytique de l’imaginaire, du symbolique et du réel ».

Dans Logique du sens, Deleuze propose une analyse similaire de l’itération, lorsqu’il affirme que la répétition doit viser un mouvement d’ouverture, même  dans un cadre où les scènes semblent passer sous nos yeux comme des choses figées et emmurées. Tout n’est pas récupérable.

 

« L’échange implique seulement la ressemblance, même extrême. C’est lui qui a pour critère l’exactitude, avec l’équivalence des produits échangés ; c’est lui qui forme la fausse répétition, celle dont nous sommes malades. La vraie répétition, au contraire, apparaît comme une conduite singulière que nous tenons par rapport à ce qui ne peut pas être échangé, remplacé ni substitué: tel un poème qu’on répète dans la mesure où l’on ne peut en changer aucun mot. Il ne s’agit plus d’une équivalence entre choses semblables, il ne s’agit même pas d’une identité du Même. La vraie répétition s’adresse à quelque chose de singulier, d’inéchangeable et de différent, sans « identité ». Au lieu d’échanger le semblable, et d’identifier le Même, elle authentifie le différent. » (Deleuze, 1969, page 334)

 

Chez chacun de ces auteurs, et sans aucun doute chez d’autres (par exemple, certains des écrits récents de Derrida sur le don et les nouvelles formes de texte technologique comme l’e-mail), je pense que nous pouvons voir une tentative de « dévoiler et toucher » (Marks, 2000) un monde caractérisé par l’opportunisme planifié, un monde dans lequel se produit une « vraie répétition », mais justement en partie parce que l’échange pur a été réalisé. Le résultat en est que de nouveaux sens du sens deviennent possibles, construits sur de nouveaux cadres d’anticipation et sur de nouvelles formes de mémoire qui peuvent apparaître et être touchées dans et par les événements actuels. Ce n’est peut-être pas si surprenant. Par exemple, les modèles de la pensée comme système ouvert développés par Derrida et Deleuze ont été fortement influencés par la théorie des systèmes (cf. Johnson, 1993). On pourrait avancer que le monde connecté dans lequel nous vivons aujourd’hui s’est construit sur les arabesques de la théorie des systèmes, et que leur travail partage, sur le plan épistémologique, des ancêtres communs.[8]

Je conclurai avec une hypothèse  sur un sujet épineux : comment peut-on résister à cet ordre ou le subvertir, dès lors qu’il est en général inconscient ? Car ce qui est clair, c’est que la question de la résistance et celle de la subversion se posent dans des termes différents. Prenez l’exemple de l’adressage. A travers l’histoire, les objets et les hommes ont résisté aux exigences de l’adressage par d’innombrables manières, le plus souvent en cherchant différentes formes d’anonymat. Mais il me semble que nous devons réfléchir beaucoup plus sérieusement à ce qui pourrait constituer une résistance et une subversion envers l’adressage dans le nouveau système de suivi et de traçabilité (track-and-trace). Une chose est sûre : de vieilles notions comme « se perdre » dans l’espace à travers des « dérives » aléatoires, comme on en trouve dans les textes situationnistes, sont en passe de devenir une curiosité d’un autre âge. Avec les vêtements connectés et les systèmes de navigation embarqués et autres dispositifs de ce genre, se perdre va devenir de plus en plus difficile, au point de constituer un véritable défi. En outre, beaucoup d’actions seront suivies de manière à peu près continue. Cela pourrait vouloir dire que nous allons devoir exploiter plus efficacement l’énergie des instants en nous attachant beaucoup plus aux petits détails de la performativité (Thrift, 2000). (Déjà, tout se passe comme si des expériences de pure adrénaline, comme le saut à l’élastique, étaient devenus une nouvelle manière de se perdre). D’un autre côté, les systèmes complexes modernes sont tellement sur-déterminés que c’est dans leurs intervalles qu’on a le plus de chances de trouver de nouvelles formes d’« escapades » susceptibles de se frayer des voies d’existence. Si les choses apparaissent différemment, nous pouvons aussi faire des choses différentes, et ouvrir avec enthousiasme le nouvel ordre des choses. Dès lors que la direction de l’attention se trouve modifiée, nous pouvons peut-être altérer la direction de notre attention, et entrevoir des possibilités d’émergences et de nouvelles incarnations[9].

 

Traduit par Anne Grand d’Esnon & Fanny Wiard[10]

 

 

Références bibliographiques

Agamben G, 1995 Moyens sans fins (Paris, Payot)

Amin A, Thrift N J, 2002 Cities: Re-imagining Urban Theory (Polity Press, Cambridge)

Bennett J, 2001 The Enchantment of Modern Life: Attachments, Crossings and Ethics (Princeton University Press, Princeton, NJ)

Berlant L, 2001, “Trauma and ineloquence » Cultural Values 5 41-58

Bourdieu P, 1980 Le sens pratique (Minuit Paris)

Brayshay M, Harrison P, Chalkley M, 1998, “Knowledge, nationhood and governance: the speed of the royal post in early modern England » Journal of Historical Geography 24 263-288

Brown B, Green N, Harper R (Eds), 2001 WirelessWorld: Social and Interactional Aspects of the Mobile Age (Springer, London)

Butler J, 1991, “Imitation and gender insubordination », in Lesbian Theories Ed. D Fuss (Routledge, New York) 23-38

Clough P T, 2000 Autoaffection: Unconscious Thought in the Age of Teletechnology (University of Minnesota Press, Minneapolis, MN)

Connolly W, 1999 Why I Am Not A Secularist (University of Minnesota Press, Minneapolis, MN)

Dagognet F, 1992, “Toward a biopsychiatry », in Incorporations 6 (Zone Books, New York) pp 223-256

Deleuze G, 1969 Logique du sens (Minuit Paris)

Depraz N, Varela F T, Vermersch P, 2000, “The gesture of awareness: an account of its structural dynamics », in Investigating Phenomenal Consciousness Ed.M Velmans (John Benjamins, Amsterdam) pp 121-138

Dertouzos M, 2001 The Unfinished Revolution: Human-centered Computers and What They Can Do For Us (HarperCollins, New York)

Dourish P, 2001 Where the Action Is: The Foundations of Embodied Interaction (MIT Press, Cambridge, MA)

Ferguson G T, 2002, “Have your objects call my objects » Harvard Business Review 80(6) 138-144

Financial Times 2002, “Supply chain execution » Financial Times IT Review, 2 October, pages vi-viii

Finnegan R, 2002 Communicating: The Multiple Modes of Human Interconnection (Routledge, London)

Gehlen A, 1980 Man in the Age of Technology (Columbia University Press, New York)

Gell A, 1992 The Anthropology of Time (Berg, Oxford)

Genette G, 1987 Seuils (Seuil Paris)

Giedion S, 1998 Mechanization Takes Command: A Contribution to Anonymous History (W W Norton, New York); première publication 1948

Gille D, 1986, “Maceration and purification », in Zone 1/2: The Contemporary City Eds M Feher, S Kwinter (Zone Books, New York) pp 227-281

Glennie P, Thrift N J, 1996, “Consumers, identities, and consumption spaces in early-modern England » Environment and Planning A 28 25-45

Glennie P, Thrift N J, 2009 Shaping the Day (Oxford University Press)

Goffey A, 2002, “Naturalizing phenomenology: cognitive science and the bestowal of sense » Radical Philosophy 114 20-28

Goody J, 1987 The Interface Between the Written and the Oral (Cambridge University Press, Cambridge)

GrayW S, Liguori S, 1990 Hotel and Motel Management and Operations 2nd edition (Prentice- Hall, Englewood Cliffs, NJ)

Hevia J L, 1998, “The archive state and the fear of pollution: from the opium wars to Fu-Manchu » Cultural Studies 12 234-264

Holmes R, 2001 Redcoat:The British Soldier in the Age of Horse and Musket (HarperCollins, London)

Hosoya H, Schaefer M, 2001, “Bit structures », in Harvard Design School Guide to Shopping Eds C J Chung, J Inaba, R Koolhaas, S T Leong (Taschen, Koln) pp 156-162

Houlding D, 1981 Fit for Service (Oxford University Press, Oxford)

Huston JA, 1966 The Sinews of War: Army Logistics 1775-1953 (United States Army,Washington, DC)

Ingold T, 2001, “From complementarity to obviation: on dissolving the boundaries between sociology and biological anthropology, archaeology, and psychology », in Cycles of Contingency. Developmental Systems and Evolution Eds S Oyama, P E Griffiths, R D Gray (MIT Press, Cambridge, MA) pp 255-279

Johnson C, 1993 System and Writing in the Philosophy of Jacques Derrida (Cambridge University Press, Cambridge)

Johnson S, 2001 Emergence (Allen Lane, London)

Jomini A, 1992 The Art of War (Presidio Press, Novato, CA); première publication 1836

Katz J, Aakhus M (Eds), 2002 Perpetual Contact: Mobile Communication, Private Talk, Public Performance (Cambridge University Press, Cambridge)

Lanzera G T, Patriotta G, 2001, “Technology and the courtroom: an inquiry into knowledge- making organisations » Journal of Management Studies 16(3)

Lieberman H, Selker T, 2000, “Out of context: computer systems that adapt to, and learn from, context » IBMSystems Journal 39(3 and 4) 121-146

Linde-Larssen A, 1996, “Small differences, large issues: the making and remaking of a national border » South Atlantic Quarterly 19 1123-1143

Ling R,Yttri B, 2002, “Nobody sits at home and waits for the telephone to ring: micro and hyper-co-ordination through the use of the mobile telephone », in Perpetual Contact: Mobile

Communication, Private Talk, Public Performance Eds J Katz, M Aakhus (Cambridge University Press, Cambridge) pp 28-46

Lury C, 1999, “Marking time with Nike: the illusion of the durable » Public Culture 11(3) 113-158

Mackenzie A, 2002 Transductions: Bodies and Machines at Speed (Continuum, London)

Mackinsey K, 1989 For Want of a Nail: The Impact on War of Logistics and Communications (Brusseg, London)

McNeill J, 1995 Keeping Order in Time (W W Norton, New York)

Mann S, 2001 Cyborg: Digital Destiny and Human Possibility in the Age of the Wearable Computer (Random House, New York)

Marks L U, 2000 The Skin of the Film: Intercultural Cinema, Embodiment and the Senses (Duke University Press, Durham, NC)

Mirowski P, 2002 Machine Dreams: Economics Becomes a Cyborg Science (Cambridge University Press, Cambridge)

New Scientist 2002, “This way to the future », 21 October, number 22, 63-65

Papayanis N, 1996 Horse-drawn Cabs and Omnibuses in Paris: The Idea of Circulation and the Business of Public Transport (Louisiana State University Press, Baton Rouge, LA)

Perry M, O’Hara K, Sellen A, Brown B, Harper R, 2001, “Dealing with mobility: understanding access anytime, anywhere” ACMTransactions on Computer-Human Interaction 8(4) 323-347

Petitot J,Varela F T, Pachaud B, Roy J (Eds), 1999 Naturalizing Phenomenology: Issues in Contemporary Phenomenolgy and Cognitive Science (Stanford University Press, Stanford, CA)

Rhind D, 1992 Postcode Geography (Methuen, London)

Rhind G, 1999 Global Sourcebook of Address Data Management (Gower, London)

Siegert B, 1999 Relays: Literature as an Epoch of the Postal System (Stanford University Press, Stanford, CA)

Simondon G, 1992, “The genesis of the individual », in Incorporations 6 Eds J Crary, S Kwinter (Zone Books, New York) pp 337-394

Taylor M C, 2002 The Moment of Complexity: Emerging Network Culture (University of Chicago Press, Chicago, IL)

Thompson J, 1991 The Lifeblood of War: Logistics in Armed Conflict (Brassey’s, Oxford)

Thrift N J, 2000, “Still life in nearly present time: the object of nature » Body and Society 6 34-57

Thrift N J, 2003, “Bare life », in Dancing Bodies Eds H Thomas, J Ahmed (Routledge, Oxford)

Thrift, N J, French S, 2002, « The automatic production of space » Transactions of the Institute of British Geographers, New Series 27 309-335

Turner B, Rojek C, 2001 Society and Culture (Sage, London)

Van Wee W, 1999 Meetings, Manners and Civilisation (Leicester University Press, Leicester)

Weiss B, 1996 The Making and Unmaking of the Haya Lived World (Duke University Press. Durham, NC)

Wellman B, 2001, “Physical place and cyberplace: the rise of personalised networking » International Journal of Urban and Regional Research 25 227-252

Wilson W C, 1998 “Activity pattern analysis by means of sequence-alignment methods » Environment and Planning 30 1017-1038

 

 

[1] Cet article a connu une longue genèse car il est le fruit de la réunion de différentes sources d’impulsion. La première source est théorique : il s’agit de mieux comprendre la somatisation des normes sociales sous la forme d’une pratique immédiate. Je pense qu’un certain nombre d’automatisme corporels inculqués par la culture (avec leurs logiques propres) et entraînant des réactions pratiques d’anticipation à diverses situations, constituent les formes principales de pouvoir social. Cependant, ces automatismes sont très peu étudiés (comparer Agamben, 2000, Bourdieu, 1999, Dagognet 1992 et Thrift, 2000). La deuxième source est historique. J’ai longtemps travaillé avec mon collègue Paul Glennie sur l’histoire de l’horloge. Mes recherches en la matière m’ont fait prendre conscience du rôle des modes de positionnement mondains et de l’évolution de ce rôle qui a migré vers toutes sortes d’objets communs et spécialisés, hors des corps qui l’endossaient auparavant. La troisième source est d’ordre pratique : des travaux préliminaires sur les télécommunications mobiles et l’hypercodage culturel qu’elles entraînent probablement. Par bien des aspects, je considère que l’usage de ces nouvelles formes de télécommunication relève du remaniement des réactions d’anticipation. Enfin, la quatrième et dernière source est politique. Je m’intéresse aux pratiques éthiques de la joie et de la générosité qui refusent un modèle législatif pur dérivant d’un domaine où la raison est hyperbolique et qui dépendent de modes d’intensité préconscients fonctionnant sur plusieurs registres à la fois. (Benett, 2001 ; Connolly, 1999 ; Thrift, 2003). A chaque fois, je suppose que l’espace, compris à la fois comme une composante essentielle de ces éthologies complexes et comme un produit, est un facteur déterminant crucial pour ma réflexion. En effet, grâce à lui, il est impossible d’utiliser les interprétations trop sommaires du fait social qui caractérisent encore trop souvent les réflexions actuelles, et il introduit un élément insaisissable à notre réflexion sur la tâche mondaine d’arranger des arrangements.

 

[2] Je pense ici particulièrement aux taxinomies rationnalisantes de Foucault.

[3] J’espère qu’il est clair qu’il s’agit d’un inconscient qui ne doit absolument pas être pensé en termes de narration. Au contraire, il faut le considérer comme une « production désirante, un assemblage qui est saisi dans tous ses effets » (Clough, 2000, page 61)

 

[4] Ce séquençage s’accompagna d’une rigidification progressive du système de transport à mesure qu’une série de règles et de régulations, certaines d’entre elles sous forme physique, furent mises en place et qu’il devint monnaie courante de planifier les transports et d’effectuer des statistiques à leur sujet. En France par exemple, on adopta la conduite à droite à Paris en 1851 mais les premières statistiques et planifications générales remontent à 1820 (Papayanis, 1996). En Grande-Bretagne, on observe l’introduction progressive des règles qui allaient permettre au trafic routier d’être séquencé et divisé : lignes blanches au milieu de la route (1931), autres lignes blanches (1936), lignes jaunes (1956), lignes blanches pour marqueur les limites de la route (1966) etc. (Amin et Thrift, 2002)

 

[5] Par exemple, au sujet de la marche militaire : « On apprenait d’abord à la recrue à être « maître de lui-même », à se débarrasser de la désinvolture du maintien civil et à adopter la posture rigide militaire. Puis, après avoir appris les postures les plus simples, il passait à l’étape suivante très simple : l’alignement de face et sur les côtés et les différents urs sur place. L’apprentissage de la marche pouvait alors commencer et l’accent était mis particulièrement sur le pas cadencé. Les techniques de mouvement devinrent de plus en plus sophistiquées au cours du siècle, exigeant toujours plus de précision, et l’instruction reflétait ces évolutions. Jusqu’au début des années 1750, on apprenait seulement aux nouvelles recrues à garder une posture et un maintien appropriés, à marcher au pas court ou long et à se replier rapidement lors d’une formation en colonne, ou lentement lors d’un défilé, d’une manœuvre ou d’une progression en ligne et les temps et les distances étaient mesurés uniquement en fonction des habitudes de chaque régiment. Le milieu du siècle fut un tournant décisif dans le développement des techniques de marche militaire. Le style de marche (c’est-à-dire la manière dont les soldats levaient et posaient la jambe) ne prit une forme codifiée qu’après 1748, avec l’adoption du « pas prussien », emprunté au style de marche rigide introduit en Russie lors des réformes du règne de Frédéric-Guillaume Ier. Il s’agit d’une innovation majeure et qui resta le style en vigueur pour les exercices linéaires de l’infanterie britannique jusqu’à la fin du règne de la reine Victoria. Le pas prussien assurait une grande précision dans la vitesse et le rythme de 120 pas/minute était considéré, pour le soldat expérimenté, comme « rien de plus qu’une marche aisée » » (Houlding, 1981, p. 259-260).

[6] Le code-barres type est composé d’une ligne de 59 barres noires ou blanches dont les variations en largeur sont à l’origine du fonctionnement du code. En-dessous de ces barres, on trouve une série de chiffres qu’on appelle standard-11 en Amérique du Nord et standard-13 dans le reste du monde. L’épaisseur des barres et la distance qui les sépare définissent le chiffre correspondant dans le code.

[7] En retour, bien sûr, cela explique la croissance d’événements comme les concerts, ou d’événements brefs comme les conférences. Les nouveaux modèles de la position et de la juxtaposition, et les connaissances qui les nourrissent, fournissent de nouvelles ressources pour le séquençage.

[8] On pourrait insister aussi ici sur la génétique comme une forme de savoir de la séquence, surtout compte tenu de l’affinité qu’entretenait Derrida avec le travail de Jacob et de Monod. En retour, les méthodes d’analyse de séquences génétiques migrent maintenant vers le monde social (voir Wilson, 1998).

[9] Remerciements. Je voudrais remercier Paul Glennie pour m’avoir fait profiter de son immense expertise historique. Michel Callon, John Law, John Urry et Michael Curry, qui ont fait des remarques très utiles sur différents aspects de cet article.

[10] Cette traduction a été réalisée dans le cadre de l’atelier ENS-KCL Translation Workshop. Elle a bénéficié des conseils et relectures de Elliot Evans, Layla Roesler et Yves Citton. Multitudes remercie Nigel Thrift d’en avoir autorisé gracieusement la traduction, et remercie les directeurs de l’atelier ENS-KCL Translation Workshop de nous avoir fait bénéficier du travail des traducteurs.

 

Thrift Nigel

L’un des plus célèbres géographes de notre époque. Ses recherches couvrent des thèmes comme la finance internationale, les villes et leur vie politique, la théorie non-représentationnelle, la politique des affects et l’histoire du temps. Il a été élu Fellow de la British Academy en 2003, ainsi que vice-chancelier de l’université de Warwick. Il a publié, entre autres, Knowing Capitalism (Theory, Culture and Society) (Sage, 2005), Non-Representational Theory (Routledge, 2007), et, avec A. Amin, Arts of the Political : New Openings For the Left (Duke University Press, 2013).