Libre Association: Internet et la recomposition réticulaire

Qu’est-ce qu’une infrastructure impériale ? L’article retrace brièvement l’histoire militaire, universitaire et commerciale d’Internet, pour montrer comment sa constitution logique permet d’intégrer le plus grand nombre de machines, de réseaux et d’utilisateurs. Il interroge ensuite le pli par lequel ce dispositif normalisant permet d’amorcer une forme originale de critique sociale en actes. Le principe militaire d’« interopérabilité » cède le pas à une dynamique imprévisible de libre association, marquée par la figure organisationnelle de l’essaim. Mais Internet reste un dispositif de contrôle, traversé ou débordé par des pouvoirs constituants.

What is an imperial infrastructure? The article briefly retraces the military, academic and commercial history of the Internet, to show how its logical constitution achieves the integration of the largest possible number of machines, networks and users. It then enquires into the fold whereby this normalizing device helps unleash an original form of activist social critique. The military principle of interoperability gives way to an unpredictable dynamics of free association, marked by the organizational figure of the swarm. But the Internet remains a control technology, overwhelmed or subverted by constituent powers.
En novembre 2002, une image étrange est apparue sur une page web du Pentagone. C’était un emblème circulaire, comportant à gauche la figure d’une pyramide dont le sommet triangulaire, détaché et comme flottant au-dessus de tout le reste, était rempli par un œil ouvert, qui irradiait de son regard un globe terrestre subjugué. Cette image contenait une devise : Scientia est potentia. Ainsi résumait-elle les buts de « Total Information Awareness » (TIA), un vaste programme de surveillance informatique, ayant pour ambition de suivre à la trace tous les habitants de la terre([[Voir www.eff.org/Privacy/TIA.).
L’image de l’œil ouvert a semé le trouble dans la galaxie des militants altermondialistes, non seulement pour le projet qu’elle annonçait, mais aussi parce qu’elle émanait de la Defense Advanced Research Projects Agency (DARPA) – l’organisme de recherche qui avait créé Internet. Devait-on croire qu’à la suite du 11 septembre, cet outil extraordinaire de mobilisation contestataire, qui semblait avoir déclenché à lui seul le cycle de luttes allant de Seattle à Gênes, serait repris en main par ses créateurs militaires ? Était-on destiné, après un bref printemps, à vivre une nouvelle glaciation de la critique sociale ?
L’annulation du projet TIA, un an plus tard, par le Congrès américain, aura peu fait pour calmer les esprits – d’autant plus qu’un système semblable, appelé « the Matrix », est actuellement opératoire à l’intérieur des États-Unis([[Voir www.aclu.org/Privacy/Privacy.cfm?ID=14240&c=130). Les risques d’hypersurveillance sont bien réels. Raison de plus pour chercher à comprendre les ressorts profonds de la grande vague de mobilisations de 1994-2001, ainsi que le rôle spécifique qu’Internet y a joué. Pour ce faire, on doit distinguer trois niveaux : le dispositif technique, ses usages majoritaires, et le protagonisme minoritaire, à formes multiples, qui éclôt en son sein. Chemin faisant, on verra comment un Appareil idéologique du gouvernement mondial en gestation se transforme, par à coups, en élément dysfonctionnel d’une machine de guerre nomade, capable d’amorcer une recomposition des résistances à l’administration totale des populations.

Faire réseau
Le dispositif technique d’Internet reste peu connu de ses utilisateurs. On croit savoir qu’il est né d’un impératif de la Guerre froide : construire un système de transmission polycentrique, capable d’envoyer des messages par divers chemins à une même destination, et apte, pour cette raison, à fonctionner sous les conditions extrêmes de la déflagration atomique. Assurer le flux des communications militaires était en effet le souci de Paul Baran, un des premiers théoriciens de la transmission d’informations par « paquets » standardisés([[Paul Baran, Distributed Communications, Rand Corporation, 1964, à www.rand.org/publications/RM/baran.list.html.). Et la technique de packet switching, qui divise chaque message en une suite de datagrammes de taille égale, chacun comportant une adresse qui permet l’acheminement à son destinataire, est effectivement aux fondements d’Internet. Mais la topologie complexe envisagée par Baran – avec jusqu’à huit liens physiques différents pour chaque nœud de transmission – n’apparaît pas dans le réseau informatique qui voit le jour entre 1969 et 1971, sous le nom d’ARPANET([[Pour l’historique, voir Janet Abbate, Inventing the Internet, MIT Press, 1999 ; pour la technique, les articles sur Internet à www.wikipedia.org.).
Le défi qu’affrontait ce programme de recherche militaro-universitaire était en réalité le suivant : imaginer un dispositif qui puisse relier à grande vitesse (un quart de seconde) les fonctionnalités d’un parc d’ordinateurs à caractéristiques très différentes – et ce, sans imposer une quelconque modification des machines (les « superordinateurs » de l’époque), ni de leurs applications. La solution passait par la séparation des tâches en deux couches logiques : d’une part, un protocole de transmission installé sur chacun des ordinateurs « clients », pour émettre les paquets et les rassembler en un tout au moment de la réception ; de l’autre, des mini-ordinateurs spécialisés, intégrés à un « sous-réseau » pour assurer l’acheminement (ou « routage ») de chaque paquet. Cette configuration initiale suffisait pour constituer un réseau cohérent, permettant l’échange de fichiers et l’opération d’applications à distance. Mais une fois relevé, le défi allait s’imposer à nouveau : car il s’agirait, dès 1973, de relier non seulement des machines différentes, mais des réseaux différents, adaptés entre autres à des moyens de transmission très divers (fils de cuivre, ondes radio, canaux satellitaires). La véritable détermination militaire d’Internet est celle-ci : assurer l’« interopérabilité » d’un ensemble de réseaux informatiques hétérogènes, fonctionnant à des échelles très différentes (du local au planétaire).
La solution, qui attendra dix ans avant d’être mise en œuvre, s’appelait TCP/IP (Transmission Control Protocol/Internet Protocol). Elle reprend la division en couches logiques, allouant cette fois au protocole d’émission-réception la responsabilité, non seulement de rassembler les paquets dans leur séquence d’origine, mais également de moduler la vitesse d’émission selon les conditions du réseau, et surtout de vérifier la réception de chaque paquet et de redemander ceux qui pourraient manquer, afin de parer aux problèmes de collision et de perte (occasionnés notamment par la diffusion radio). Le protocole TCP, installé sur chaque ordinateur client, effectue toutes les opérations concernant le message en tant que tel. Le protocole Internet – géré par des ordinateurs intermédiaires appelés « routeurs » – s’occupe exclusivement d’acheminer le flux de paquets, en se référant pour cela à des « tables de routage » constamment actualisées. Pour identifier le destinataire de chaque envoi, le routeur fait également appel à des ordinateurs spécialisés appelés « serveurs de noms de domaine », qui résolvent les lettres utilisées dans les adresses courantes – type az@samizdat.net ou www.u-tangente.org – en séquences de chiffres organisées de manière hiérarchique (exemple : 136.142.185.161). Cet identifiant numérique permet de trouver d’abord le réseau destinataire, puis l’ordinateur spécifique auquel les paquets sont destinés. Il y a donc un nombre unique pour chaque machine (du moins, pendant son temps de connexion). La standardisation du protocole d’émission-réception et l’attribution d’adresses uniques constituent ensemble un jeu d’identité et de différence : la structure logique de la communication à l’intérieur de la nouvelle communauté réticulaire.
La suite de protocoles TCP/IP établit un champ homogène pour l’interaction d’ensembles machiniques complexes, chacun avec ses caractéristiques et son histoire. C’est cette capacité d’intégration des différences qui fait du réseau ARPA une infrastructure impériale en puissance, capable de souder ensemble la citoyenneté mondiale émergente. Mais comment ce potentiel s’actualise-t-il ? Comment une technologie de pointe, impulsée par un commandement militaire, développée par une communauté de recherche internationale, et déployée à grande échelle par l’emballement spéculatif des industries télécommunicationnelles du monde entier, finit-elle par devenir un champ de luttes, surveillé par l’œil ouvert mais angoissé de ceux-là mêmes qui l’ont fait naître ?

Masse critique
Au milieu de son livre sur l’invention d’Internet, Janet Abbate remarque qu’aucun des étudiants impliqués dans un programme de recherche militaire en plein milieu de la guerre du Vietnam ne semble avoir soulevé la moindre objection. Pourquoi ? Sa réponse, c’est que les managers d’ARPA auraient eu le souci constant de présenter leur projet comme de la recherche pure devant le public universitaire, tout en soulignant ses applications militaires devant les bailleurs de fonds. Mais ce doigté managérial ne s’arrête pas là.
Les pilotes du projet savaient que si le dispositif expérimental allait réussir, il devrait être investi, notamment par ceux qui pouvaient contribuer à son perfectionnement. Pour favoriser l’interconnexion d’un nombre toujours grandissant de réseaux, ils défendaient TCP/IP comme un standard public, gratuit et libre de droits. Ceci pouvait intéresser non seulement les universitaires, mais également les amateurs et les entreprises, qui voulaient échapper aux standards propriétaires proposés par les fabricants de machines. Les responsables militaires s’y intéressaient tout autant : le projet ARPA apparaissait à leurs yeux non seulement comme un vivier d’innovations techniques, mais aussi comme le moteur d’un secteur productif qui leur permettrait de se fournir au moindre coût en pièces détachées pour leurs propres réseaux cryptés. Le résultat paradoxal est une sorte de géopolitique diffuse du logiciel libre, qui peu à peu contourne tous les autres projets nationaux de réseaux de données – jusqu’au moment où Internet se libère de la tutelle publique américaine. Toute la dynamique du réseau des réseaux, depuis l’implémentation de TCP/IP en 1983 jusqu’à l’explosion commerciale de 1994, consiste à chercher la masse critique.
Dès 1973, quand il s’agissait de créer les protocoles de communication, les américains Robert Kahn et Vinton Cerf avaient sollicité des avis auprès des meilleurs laboratoires des pays capitalistes. Parmi leurs interlocuteurs figuraient Louis Pouzin et Hubert Zimmerman, les développeurs de Cyclades, un réseau expérimental français. Ceux-ci défendaient les avantages d’un système qui localisait la majorité des fonctions de traitement de données dans les ordinateurs clients, en demandant au système de routage le service le plus élémentaire : un flux de datagrammes acheminés rapidement à leur destinataire. Se méfiaient-ils des « réseaucrates([[Merci à Anne Querrien pour l’invention de ce mot.) » de France Télécom ?
Vers le milieu des années 70, les PTT de plusieurs pays ont commencé à développer des systèmes nationaux d’échanges de données. Un des résultats fut le Minitel, qui associe un terminal aux fonctions réduites à une gamme de services divers, tous formatés et facturés par les gestionnaires du réseau. Le protocole de communication X.25 – promu dès 1976 comme standard public par l’Union Internationale des Télécommunications – était à la base des systèmes nationaux. Il aurait permis leur interconnexion. Mais X.25 n’était pas conçu pour faciliter des liens entre systèmes hétéroclites : il ne fournissait pas un simple flux de paquets, et son schéma d’adresses laissait peu de place pour des organisations indépendantes. Cependant, les réseaux locaux (LANs) se multipliaient, avec l’introduction de systèmes câblés de type Ethernet. Malgré l’absence notoire de fonctions spécialisées pour le contrôle d’accès ou la facturation de services, TCP/IP était mieux adapté pour de nombreux utilisateurs. Et de fait le premier regroupement privé (mais à but non lucrative) de réseaux utilisant ce protocole s’est constitué en Europe, en 1989, sous le nom de RIPE (Réseaux IP Européens). L’essence de l’infrastructure impériale, c’est de prendre forme grâce au pouvoir constituant de ses utilisateurs.
Curieusement, c’est le statut public du projet américain qui l’empêchait de croître. Internet était passé sous la tutelle de la National Science Foundation en 1988. Un règlement, dit « d’usage acceptable », réservait l’infrastructure publique à des activités « de recherche ouverte ou d’éducation », en interdisant la vente du moindre service, sans qu’aucun autre mode d’accès soit prévu. Dès 1991, trois fournisseurs privés ont suivi l’exemple de RIPE, en créant une organisation non profit – le Commercial Internet Exchange – pour relier leurs réseaux. D’autres les ont vite rejoints ; et en 1994 la National Science Foundation a préféré résoudre les contradictions de l’« usage acceptable » en faisant migrer Internet sur les tuyaux privés. La ruée sur l’or virtuel a fait tout le reste. La période de croissance spectaculaire d’Internet – et avec elle, l’époque d’accès massif – avait commencé.
Dan Schiller a assurément raison quand il replace le développement d’Internet dans une stratégie à long terme des télécoms et des médias américains, à la recherche de marchés élargis et de systèmes de diffusion ciblés([[Voir Dan Schiller, Digital Capitalism, MIT Press, 1999.). L’usage majoritaire d’Internet sera médiatique, voire pornographique ; le dispositif sera également très utile pour organiser le travail flexible([[Voir mon texte « The Flexible Personality », à www.u-tangente.org ; cf. aussi Ph. Zarifian, À quoi sert le travail ?, Paris, La Dispute, 2003.) ; et on ne signalera jamais assez son effet de stimulant sur l’institution militaro-industrielle, devenue aussi transnationale (ou impériale) que sa créature électronique. Tout semblait destiner Internet à un rôle fortement normalisateur, comme un Appareil idéologique de l’État mondial naissant, interpellant ses utilisateurs en leur assignant un nombre unique, afin de les intégrer aux codes préétablis d’une machine productive, associée à un ensemble de « valeurs » (individualisme, monolinguisme, flexibilité, ubiquité, etc.). N’empêche qu’au moment même où le réseau des réseaux atteint un public de masse, diverses minorités s’en emparent pour produire des interventions critiques. Par quel pli retournent-elles l’infrastructure impériale en son envers ?

Essaimer
1994, c’est l’année charnière de la mondialisation : cinquantième anniversaire de la Banque mondiale et du FMI (et la fondation de l’alliance contestataire Fifty Years is Enough) ; signature des accords du GATT (préalables à la création de l’OMC) ; entrée en vigueur de l’ALENA (zone de libre-échange américaine) ; soulèvement zapatiste ; et distribution massive du navigateur Mosaic – qui apportait à Internet la structure rhizomatique des hyperliens, et les images couleur de la télé.
Certaines coïncidences ne s’expliquent pas. Quand Tim Berners-Lee, l’inventeur du World Wide Web, cherche un exemple pour illustrer l’intérêt d’un réseau hypermédia, il ne trouve rien de mieux qu’un texte sorti d’un des newsgroups de l’époque, traitant de la censure – ou plutôt, de son classement. Fallait-il en discuter dans alt.hypertext, ou dans alt.individualism ? Pour Berners-Lee, le problème n’est pas tant l’autoritarisme politique que l’organisation par arborescence, qui fait diverger les informations en limitant l’accès([[Voir la proposition du World Wide Web, à www.w3.org/History/1989/proposal.html.). Le système qu’il proposait aux gestionnaires du CERN, le grand laboratoire européen de la physique, devait permettre de tout relier à tout, et de retrouver facilement des quantités d’informations distantes, égarées ou oubliées. « Il est également possible de regarder la topologie d’une organisation ou d’un projet, et de tirer des conclusions sur son mode de gestion optimal ou son évolution possible », écrit-il. « Ceci est particulièrement utile quand la base de données s’agrandit démesurément, et les groupes de projets deviennent tellement enchevêtrés que les arbres empêchent de voir la forêt ».
Depuis la fin des années 80, des newsgroups et des listes de diffusion avaient été montés sur les sujets politiques les plus divers, au travers de réseaux bricolés du type fido.net, qui reliaient des ONG à travers le monde. En 1992, Howard Frederick pouvait déjà écrire sur « Les réseaux informatiques et l’émergence d’une société civile mondiale », en traitant du cas spécifique de l’Association for Progressive Communications([[Voir www.eff.org/legal/Jurisdiction_and_sovereignty/global_civil_soc_networks.paper.). Un des affiliés de l’APG était La Neta, une association d’informatique militante au Mexique, qui jouera un rôle important lors de l’insurrection zapatiste. Aux USA, l’autonomiste Harry Cleaver organisait divers sites et listes de solidarité, en décrivant l’autovalorisation des acteurs impliqués, ainsi que le « tissu électronique des luttes([[Voir l’ensemble de sites, de listes et de textes à www.eco.utexas.edu/Homepages/Faculty/Cleaver/chiapas95.html ; et le texte de Cleaver, « Computer-Linked Social Movements and the Global Threat to Capitalism ».) ». L’extension vertigineuse d’Internet induisait des collaborations renouvelées entre militants locaux, sympathisants nationaux et ONGs internationales, avec une incidence positive non seulement sur la couverture médiatique, mais aussi sur la diplomatie. Les Zapatistes pouvaient tenir pacifiquement contre l’armée mexicaine, en ouvrant un conflit de mots, ce que Marcos appelait un « espace politique ». Comme Cleaver l’indique, la nouvelle du soulèvement arrivait, pour beaucoup, à travers des listes et des newsgroups consacrés à la résistance contre l’ALENA, avec ses foyers locaux depuis le Grand Nord canadien jusqu’à la Terre du feu. Des luttes distantes, disjointes, voire oubliées depuis la fin des années 70, allaient se recomposer selon une structure réticulaire([[Pour une étude de la recomposition hexagonale des luttes, voir E. Agrikoliansky et alii, L’altermondialsme en France, Paris, Flammarion, 2005. ), à partir d’une nouvelle forme d’intervention.
C’est le technovisionnaire Kevin Kelley qui fut le premier à parler de la figure biologique de l’essaim, dans son livre Out of Control en 1994. Mais ce sont des analystes de la Rand Corporation (une boîte-à-penser militaire) qui l’ont théorisée comme la forme organisationnelle de la « guerre sociale réticulaire ». La lecture de leurs textes (tous disponibles en ligne) est fascinante pour qui veut comprendre le rapport en vrille qui ne cesse de relier stratégie militaire et contestation civile. L’essaimage, écrivent-ils, « a lieu quand les nœuds épars d’un réseau de petits groupements (et peut-être quelques grands) convergent sur une cible depuis tous les horizons. Le but est une pulsation soutenue – les réseaux-essaims doivent pouvoir confluer rapidement et subrepticement autour de la cible, puis se scinder et se disperser à nouveau, immédiatement prêts à se recomposer pour une autre pulsation »([[D. Ronfeldt, J. Arquilla, The Zapatista « Social Netwar » in Mexico, Rand Corporation, 1998, chapitre 2, à www.rand.org/publications/MR/MR994.) . Selon ces analystes, la guerre sociale réticulaire est moins un conflit armé qu’un choc d’informations, d’images et d’opinions contraires, faisant intervenir une « noöpolitique ».
Internet est devenu le vecteur majeur de cette noöpolitique, non seulement parce qu’il relie les ensembles machiniques les plus hétéroclites, mais aussi parce que les composantes humaines de ces ensembles cherchaient des liens transversaux, en dehors de leurs milieux d’origine ou d’adoption. Elles développent ces transversalités par des pratiques de libre association, dans le sens anarchiste, mais également psychanalytique du terme. La page web permet de faire sa propre information, avec une puissance multimédia rivalisant avec celle de la télévision ; et le lien hypertexte permet de s’associer d’emblée avec d’autres mouvements, en levant l’hypothèque – voire le refoulement – que diverses formes d’autorité politique avaient fait peser sur les désirs de résister et d’agir. Le résultat, dans les cas les plus réussis, est une intelligence collective qui déborde, de loin, le glissement désincarné des datagrammes.
En témoignent les termes d’un débat sur la forme possible d’un réseau de communication pour l’une des premières coordinations altermondialistes, l’Action mondiale des peuples, en 1977. Le débat avait lieu, selon le militant Andrew Flood, « d’une manière visuelle qui n’est pas facile à raconter en mots » : « En discutant de ce à quoi un réseau sans centre pourrait ressembler, et en reconnaissant que certains ont plus de temps et de ressources à consacrer au flux d’informations que d’autres, on en est venu à utiliser le cerveau humain comme analogie. Ici les multiples nœuds ont des sillons majeurs qui acheminent l’information entre eux, mais il est toujours possible pour deux nœuds quelconques d’établir une connexion et pour cette connexion de devenir plus rapide et de porter plus d’informations si besoin est. Donc beaucoup de chemins mineurs existent aussi. Il y a également un flux à double sens, d’informations et de retours sur les informations envoyées([[A. Flood, « Dreaming of a Reality: Where The Past And Future Meet The Present », à www.geocities.com/CapitolHill/3849/report_andrew.html.). »
Dans un monde où les communications de masse, étatiques ou commerciales, cherchent à façonner la vérité de chaque événement au travers de sa représentation soigneusement canalisée, ces militants ont rêvé d’un échange d’égal à égal, dont le modèle est une conversation directe, sans intermédiaires, mais dont l’extension géographique serait illimitée. Fustiger la naïveté de ces libres associations serait assez vain, puisque sans elles le cycle des contre-sommets des années 1999-2001, qui a renouvelé la possibilité même de penser et d’agir à gauche en Occident, n’aurait tout simplement pas eu lieu([[Voir un texte de rare précision – disponible à http://nwcitizen.com/publicgood/reports/wto – qui démontre le rôle-clé joué à Seattle par le Direct Action Network, qui était très proche de l’Action mondiale des peuples.). Nous vivons aujourd’hui dans le prolongement de ces réseaux agissants – avec l’obligation de détourner, de détraquer, de déjouer par toutes les métamorphoses de l’intelligence collective, l’œil du pouvoir qui les habite depuis leur origine.

Holmes Brian

Critique d'art, essayiste et traducteur, il vit à Paris et s'intéresse aux croisements entre art, économie politique et mouvements sociaux. Il a effectué un doctorat sur les langages et la littérature romantiques à l'Université de Berkeley ( Californie ) et a été l'éditeur en anglais du receuil {« Documenta X»}, Kassel, Germany, 1997. Membre du groupe d'art graphique {«Ne pas plier"} de 1999 à 2001, il travaille depuis peu avec le groupe d'art conceptuel parisien {« Bureau d'études »} avec lequel il a fondé la revue {«Autonomie artistique»}. Il contribue régulièrement à la liste de diffusion {« Nettime »} et collabore à diverses revues : {Springerin} (Vienne), {Parachute} (Montréal). Auteur d'un receuil de textes, {« Hieroglyphs of the Future : Art and Politics in a Networked Era »} ,Zagreb: Arkzin, 2003, il prépare un livre en français : {«La personnalité flexible : pour une nouvelle critique de la culture»}. Membre du comité de rédaction transnational de Multitudes. Il a dirigé son numéro spécial {«l'Art contemporain : la recherche du dehors»}, Janvier 2004, Exils.