La souveraineté numérique

« Internet est le produit (…) d’une conjonction surprenante entre des institutions financées sur fonds publics – à l’origine, la recherche militaire ARPANet – et l’activité autonome de hackers, de passionnés de technologie et autres dissidents informatiques( ). » C’est cette histoire que nous allons explorer et raconter, en exposant les relations entrecroisées qui permettent de mieux comprendre les origines d’Internet et, plus particulièrement, de ceux qui l’administrent.

Les maîtres du Web et du monde numérique

Ceux qui administrent le Web et ses soubassements, précisément, je les appelle l’« aristocratie immatérielle ». Le plus souvent, aujourd’hui, le terme « aristocratie » qualifie ceux qui exercent leur contrôle sur les autres par le capital : des machines, de l’argent et du pouvoir( ). On pense aux PDG, aux agents de change, aux avocats, aux bureaucrates voire aux grands médecins. Ça, c’est l’aristocratie matérielle, celle qui tire son pouvoir de machines et de mécaniques matérielles, de la capacité à acheter des biens tangibles et à commander des troupes qui le sont tout autant. L’aristocratie immatérielle, en revanche, ne commande pas d’armée. Si elle n’est pas riche à proprement parler, elle vit généralement à l’aise. Dans la plupart des cas, elle ne dispose ni de machines spécialisées ni même d’employés. Si l’on peut néanmoins qualifier ses membres d’aristocrates, c’est dans la mesure où ils ont des idées puissantes, susceptibles de changer le monde lorsqu’ils les mettent en œuvre. Ce sont des aristocrates au sens des Grecs anciens, voués à leur tâche, à qui l’on reconnaît un certain sens de la justice et de l’humilité. Ils sont prêts à renoncer à une richesse immodérée si elle fait obstacle à leur engagement fanatique dans le perfectionnement et l’accomplissement de leurs idées. On les aurait considérés auparavant comme des artistes, des lettrés, des chercheurs ou des bohèmes. Il y a pourtant une différence très nette entre les intellectuels immatériels et l’aristocratie immatérielle : cette dernière a fait la preuve de sa capacité à transformer ses idées en pouvoir bioproductif. C’est tout particulièrement le cas depuis l’avènement de l’intellectualité de masse, qui a offert au plus grand nombre la possibilité de prendre part au royaume des idées. Dans la mesure où la production de sens, linguistique et symbolique, constitue aujourd’hui le mode de production hégémonique, la différence fondamentale entre l’aristocrate immatériel et le programmeur ordinaire tient à ce que l’aristocrate immatériel crée les idées qui se cachent derrière les technologies que les autres se contentent d’implémenter et d’utiliser.

Des acteurs clés du capitalisme cognitif

Ces aristocrates ne sont pas simplement des hackers, des créateurs de logiciels ou des techniciens. Certains sont juristes, comme Lawrence Lessig, l’inventeur des licences Creative Commons ; d’autres, comme Ted Nelson, sociologue américain à l’origine du concept d’hypertexte, sont des « visionnaires » professionnels. Les aristocrates immatériels auxquels nous nous intéressons sont ceux qui règnent non pas sur le monde analogique, mais sur le monde numérique – le royaume défini par l’utilisation des ordinateurs. Ils en sont les architectes et techniciens. Ce sont eux qui conçoivent les idées – de l’intelligence artificielle à l’hypertexte – qui deviennent à ce point omniprésentes que leur auteur ne peut plus en être considéré comme le détenteur exclusif. Ces idées prennent la forme de standards ouverts, adoptés en accord avec les aristocrates matériels et, souvent, après consultation d’une masse d’utilisateurs. Le monde numérique leur assure un présent perpétuel avec d’autant plus de facilité que, sans elles, il se fragmenterait et perdrait assez vite son pouvoir universel. Leurs idées permettent au capitalisme de prospérer d’une nouvelle façon, en créant les espaces décentralisés nécessaires aux flux de connaissances et aux flux monétaires. Les technologies qui en sont le relais auraient-elles à l’inverse, comme certains le soutiennent, semé les germes d’un effondrement du capital en donnant réalité à un bien commun numérique en constante expansion ? Y a-t-il là de quoi alimenter une eschatologie d’Internet ? Nous faisons l’hypothèse que ces aristocrates immatériels sont parmi les acteurs clés d’une nouvelle forme de capitalisme, le capitalisme « cognitif », et nous nous attacherons à décrire tout particulièrement l’infrastructure technologique qui la soutient.

Les hackers plutôt que les chercheurs en intelligence artificielle

Une figure sociale vit le jour, au cours des années 1970, dans les laboratoires d’intelligence artificielle du MIT (Massachusetts Institute of Technology) de Boston : les « hackers ». Alors que les chercheurs du MIT – philosophes et surtout mathématiciens –, s’efforçaient depuis des années de déterminer s’il était possible de mécaniser l’intelligence humaine au moyen de l’informatique, leurs étudiants se prirent de passion pour les ordinateurs eux-mêmes. L’un des chercheurs en intelligence artificielle (ou IA), Joseph Weizenbaum, décrivait cette nouvelle figure avec une pointe évidente de mépris : « Vêtements froissés, cheveux sales, rasage approximatif et cheveux non peignés : tout démontre qu’ils négligent leur corps et le monde qui les entoure ». Les hackers n’existent « qu’à travers leur ordinateur, et pour lui »( ). Le hacker suprême Richard Stallman, qui venait d’abandonner ses études de troisième cycle auprès de l’intelligentsia de l’IA et s’apprêtait à inventer le logiciel libre et les principes copyleft, voyait pour sa part les racines de ce nouveau sujet social, non dans le rejet de l’humanité, mais dans une pratique communautaire et joyeuse.

Il apparaît aujourd’hui, avec le recul, que le « camp » de l’intelligence artificielle faisait fausse route quand il cherchait à articuler, au moyen de l’ordinateur, l’intelligence avec le corps. Les hackers acceptaient en revanche le potentiel des ordinateurs en tant que tels. Au moment où le projet d’intelligence artificielle marquait le pas, ce sont eux qui ont assuré la maintenance d’Internet et ont finalement donné naissance au Web.

La distinction a de l’importance : le Net n’est pas le Web. Pour simplifier, Internet est un ensemble de langages, de protocoles tels que le TCP/IP. Le Web, ou plutôt ce World Wide Web né plus tard, entre la fin des années 1980 et le début de la décennie suivante, repose quant à lui, au plan technique, sur un modèle d’identification universel qui permet de trouver sur le réseau des ressources de textes, de sons ou d’images – même si l’on tend à l’assimiler à la navigation en hypertexte et aux logiciels de navigation, tels Mosaic dès 1993 puis Netscape à partir de 1995, qui ont su l’incarner dans sa dimension multimédia.

Un « réseau galactique » issu de la guerre froide

Entre la fin des années 1950 et le début des années 1960, tandis qu’un grand nombre d’universitaires s’intéressaient à l’intelligence artificielle et s’efforçaient de créer un individu en silicone, la cybernétique, soit la théorie universelle de la rétroaction et du contrôle, connaissait en Russie un regain d’intérêt. Contrairement aux partisans de l’intelligence artificielle, qui entendaient remplacer l’être humain, les cybernéticiens s’intéressaient avant tout à l’utilisation des cycles d’entrée et de rétroaction pour créer des couplages toujours plus étroits entre l’humain et les machines. Ils étaient vus d’un fort mauvais œil par bon nombre des « logicistes » de l’intelligence artificielle, à commencer par le pape de l’IA américaine Marvin Minsky. Conduite par Axel Berg, une nouvelle génération de cybernéticiens soviétiques en était venue à croire que les cycles de rétroaction entre travailleurs et producteurs, médiatisés par l’ordinateur, allaient permettre, à eux seuls, de surmonter les difficultés structurelles de l’économie planifiée mise en place par Staline.

À cela s’ajoutait, et c’était pour l’armée américaine une profonde source d’inquiétude, que Norbert Wiener, le fondateur de la cybernétique, s’opposait de plus en plus ouvertement à la guerre froide et au financement de la science par l’armée, et qu’il avait acquis en Russie un statut de héros.

Paniquée par l’éventualité d’une défaite dans la guerre « cybernétique », l’armée américaine décida donc d’investir des sommes considérables dans la création d’une alternative à la cybernétique soviétique. En 1962, Joseph C. R. Licklider, du MIT, proposa la création d’un « réseau galactique » de machines, et, nommé à la tête de la DARPA (Defense Advanced Research Projects Agency), il entreprit de le financer.

Avant que Licklider ne formule l’idée d’un « réseau galactique », on supposait que les réseaux étaient des systèmes clos et statiques. Avec un réseau, on pouvait communiquer – ou non. Sous l’égide de la DARPA, pourtant, plusieurs groupes de scientifiques clairvoyants déterminèrent qu’il pouvait exister un « réseau à architecture ouverte », au sein duquel un méta-niveau, une « Internet working Architecture », allait permettre d’interconnecter différents réseaux. Le principe était le suivant : les réseaux devaient « se servir l’un à l’autre de composant, plutôt que d’agir comme des pairs en offrant, chacun pour son compte, un service de bout en bout » (Leiner, et al., 2003). Une série de figures et de mouvements sociaux allaient s’en emparer par la suite, mais c’est ici que naquit le « Réseau des réseaux », autrement dit « Internet » – tandis que de leur côté, paradoxe de l’histoire, les Soviétiques, dont les amours cybernétiques avaient provoqué ce mouvement, en revenaient à une économie plus centralisée.

Le langage universel d’Internet

L’architecture d’Internet fournissait la dynamique et les principes initiaux, mais elle ne disposait pas encore d’un protocole de transfert extensible à une grande variété de réseaux, c’est-à-dire de supports matériels restant totalement indépendants du Net lui-même. Ce sera chose faite avec l’invention par Robert Kahn et Vint Cerf en 1976 du protocole TCP/IP, langage universel ( ) permettant à la toile de fonctionner peu ou prou sans contrôle d’ensemble au niveau opérationnel.

Les données sont subdivisées en « paquets » et chacun de ces paquets est traité indépendamment par le réseau. Toute donnée envoyée sur Internet est divisée en paquets de taille à peu près équivalente par le TCP, qui est le protocole de contrôle des transmissions. Puis ces paquets sont envoyés sur le réseau en utilisant l’IP, ou protocole Internet. Chaque ordinateur possède en effet un numéro d’identification Internet, une adresse de destination codée sur quatre octets – 152.2.210.122 par exemple. Ce protocole IP achemine le système à travers différentes boîtes noires, comme les passerelles et routeurs, qui ne cherchent pas à reconstruire les données originelles à partir du paquet et ne conservent aucune mémoire du flux qu’ils orientent. Du côté du récepteur, enfin, le TCP collecte les paquets qui arrivent et peut alors reconstruire les données que chacun consulte depuis son ordinateur.

Le système est décentralisé par principe, mais c’est en réalité un réseau hybride qui comporte des éléments centralisés, dans la mesure où l’assignation clé d’une adresse IP à chacune des machines est fournie par une autorité. Anciennement assuré à titre bénévole par Jon Postel, ce pouvoir est détenu aujourd’hui par l’ICANN (Internet Corporation for Assigned Names and Numbers). En général, l’autorité centrale s’en tient néanmoins à un degré de contrôle assez minimal. En définissant à la fois l’architecture première nécessaire au partage de l’information de façon décentralisée et un moyen d’envoyer l’information en empruntant plusieurs chemins possibles, les aristocrates immatériels d’Internet ont posé les bases du réseau et de son caractère continu : décentralisation, redondance et multitude de possibilités.

La commission technique d’Internet ou la naissance d’une aristocratie immatérielle

Conçu à l’origine par la DARPA comme projet de recherche militaire, Internet n’a pas tardé à déborder le vase clos universitaire. Lorsque la nouvelle d’un « réseau universel » s’est répandue, des universités, des entreprises mais aussi des administrations se sont « connectées » de manière volontariste. Internet s’est forgé dans une adhésion, sur la base du bénévolat, à des protocoles ouverts et à des procédures définis par un certain nombre de standards : les standards Internet.

La coordination de ces standards Internet à l’échelle mondiale a tendu à devenir assez vite une sorte de « mission sociale » que le complexe de recherche militaro-industriel était de moins en moins en mesure d’administrer – de moins en moins désireux aussi.

Parti de quatre nœuds en 1969, il couvrait tous les continents vers la fin des années 1970. L’Internet Control and Configuration Board (ICCB) vit le jour en 1979 pour administrer et contrôler les standards Internet. Son premier conseil d’administration se composait pour l’essentiel de scientifiques et d’ingénieurs qui avaient contribué aux premiers développements d’Internet. Le président de l’ICCB prit le nom d’« Architecte d’Internet ». Dans la logique qui caractérise l’aristocratie immatérielle, la loyauté de ces ingénieurs paraissait reposer sur Internet lui-même, avant toute autre chose. Parce qu’il n’était plus placé sous l’égide unique de la DARPA et qu’il était largement financé en outre par la NSF (US National Science Foundation), Internet entra dans une nouvelle phase politique et entreprit de se charger lui-même de son organisation. La souveraineté numérique acquit une certaine marge d’autonomie. On inventa un Internet Architecture Board pour assurer une surveillance au moment où les financements de la recherche et de l’armée s’amenuisaient. De nombreux universitaires et chercheurs rejoignirent alors l’Internet Research Steering Group (IRSG) afin de définir les perspectives à long terme d’Internet. Au terme de ce qui pourrait s’apparenter à un détournement des recherches universitaires, la création de standards et la maintenance de l’infrastructure atterrit dans les mains de l’Internet Engineering Task Force (IETF), posant une nouvelle pierre à la constitution de cette aristocratie immatérielle.

L’aristocratie de hackers du capitalisme cognitif

Le groupe de l’Internet Engineering Task Force était lui-même sous l’entier contrôle de ceux qui avaient consacré le plus de temps et de travail à la construction d’Internet : les hackers. Contrairement à leurs prédécesseurs, les hackers n’étaient, pour la plupart, pas diplômés de troisième cycle en science informatique, mais ils pouvaient compter sur l’engagement joyeux d’une vie tout entière consacrée à l’avènement d’un réseau informatique universel.

L’esprit anarchique des hackers se retrouvait dans l’organisation interne de l’IETF. L’IETF se contentait d’une structure informelle et ad hoc et se passait de conseil d’administration. Il allait toutefois procéder assez rapidement à des élections pour désigner les membres d’un comité de supervision, l’IAB (Internet Architecture Board). Rapidement aussi, ces derniers allaient s’en tenir à un rôle symbolique, et la souveraineté d’Internet se déplaça vers l’IETF. L’IETF adopta pour principe directeur le credo attribué à David Clark, chercheur du MIT et président de l’IAB : « À bas les rois, les présidents et le vote. Vive le consensus et les règles évolutives. » Fidèle à son Credo, l’IETF connaît depuis lors un fonctionnement démocratique, mais sous une forme absolue et radicale. Il ne compte à proprement parler ni « membres », ni adhérents officiels – pas d’adhérents officieux non plus –, et les participants ne sont pas rémunérés. S’ils appartiennent à une autre organisation, leur participation à l’IETF se fait à titre individuel, et en qualité de bénévole. Tout le monde peut s’y joindre, et le fait de « s’y joindre » ne consiste en rien d’autre qu’à contribuer aux discussions. Pour être ratifiées, les décisions n’ont besoin ni de consensus au sens strict ni de la majorité des suffrages : le vote se réduit le plus souvent à une évaluation à la louche, lorsque tout le monde paraît s’accorder sur une idée. Les membres de l’IETF se déterminent généralement sur une idée selon son degré de mise en œuvre (le « running code ») et non sur des critères « idéologiques ».

L’IETF se décompose en plusieurs secteurs, tels le « Multimédia » et la « Sécurité », qui se subdivisent eux-mêmes en groupes de travail sur des sujets pointus (mais importants), comme les formats « atompub » ou « smime ». C’est au sein de ces groupes de travail que se déroule, par exemple, l’essentiel du travail de « Request for Comments » ou RFC, qui fixent les standards Internet tels que les HTTP (protocole de transfert hypertexte / RFC 3986). Les groupes élisent des présidents qui veillent à ce que le groupe ne dérive pas du sujet.

Ce type d’organisation informel se prête au développement de hiérarchies elles aussi informelles. Elles permettent de s’assurer les services des hackers les plus brillants et les plus impliqués, ceux qui consacrent au Net la plus grande part de leur temps. « Le week-end, on se réveille, on enfile des vêtements confortables et on part travailler dans son groupe d’experts. » Si une majorité des participants à l’IETF sent que ces hiérarchies informelles menacent de ralentir le travail pratique, on procède à des élections pour renouveler les présidences des groupes de travail et autres bureaucraties informelles, comme cela s’est produit à grande échelle en 1992.

L’IETF est aussi, et avant tout, une organisation « numérique », et l’essentiel de la communication se déroule par mail. Cela ne l’empêche pas d’organiser, une fois par an, trois séances plénières d’une semaine, ouvertes à tous, qui attirent plus d’un millier de participants. Au cours de ces rassemblements en face à face, les vraies avancées paraissent se produire pour l’essentiel dans les discussions, plus informelles encore, qui se tiennent à la pause-café et s’organisent selon le principe bien connu de « qui se ressemble s’assemble ».

L’IETF constitue un parfait exemple du capitalisme cognitif et du travail immatériel ; d’abord parce que le travail tend à y constituer une partie intégrante du temps de la vie – la vie intellectuelle comme la vie de loisirs –, ensuite parce que, pour l’essentiel, sa production est collective. Enfin, l’aspect collectif et social de l’IETF s’imbrique avec ses aspects technologiques. C’est ainsi que les règles de la « netiquette » destinées aux usagers ordinaires sont issues à la fois du groupe « Utilisation responsable du réseau » et de directives qui se présentent comme n’importe quel standard technique.

L’espace universel d’information : le World Wide Web

Vers le milieu des années 1990, l’« espace universel d’information » commençait à prendre forme. Il répondait à peu de chose près aux espoirs formulés quelques années auparavant, sous le nom de « World Wide Web », par l’un des membres de l’IETF, Tim Berners-Lee( ). Sa proposition initiale reposait tout entière sur la foi en un système universel : « Il faudrait mettre au point un système universel d’informations liées qui donnerait la priorité à la généralité et la portabilité sur les graphiques décoratifs et les fonctionnalités complexes. » Devenu consultant en génie logiciel au laboratoire de physique nucléaire du CERN, Berners-Lee cherchait par tous les moyens à connecter un très grand nombre d’informations et de machines. Il redécouvrit ainsi le système d’information-organisation qu’il avait baptisé « Enquire Inside on Everything » dans ses notes, et qui devait constituer un « espace universel au sein duquel tous les liens hypertextes autorisent une circulation simple »( ). De son côté, en raison peut-être de sa nature anarchique, l’IETF continuait de produire une multitude de protocoles incompatibles. Mais il aurait très bien pu en aller autrement ; les protocoles auraient pu communiquer sur Internet. Il ne leur manquait guère qu’un format universel.

Le World Wide Web sera donc ce format, à partir de trois principes définis par Tim Berners-Lee : baptiser « ressource » tout ce que l’on voudrait communiquer sur Internet ; attribuer à chaque ressource un identifiant uniforme de ressource (URI) permettant de l’identifier et, le cas échéant, de lui ouvrir un accès ; enfin, pour que soient reliés entre eux tous les documents du Net, simplifier l’hypertexte grâce à un format lisible par qui que ce soit.

Aidé, au sein de l’IETF, par de nombreux compatriotes dont Larry Masinter et Roy Fielding, Berners-Lee ouvrit la voie au développement des standards HTML (HyperText Markup Language) et http (HyperText Transfer Protocol). Mais le World Wide Web va percer dans la première moitié des années 1990 pour une autre raison. À l’époque, un système de recherche de fichiers hiérarchique connu sous le nom de Gopher était en position d’hégémonie dans la navigation sur Internet. L’une des premières affaires d’enclosure numérique sur Internet se produisit lorsque l’université du Michigan décida de facturer les structures commerciales qui utilisaient Gopher, mais pas les universitaires et les utilisateurs à but non lucratif. Le système devint une sorte de paria sur Internet. Berners-Lee, voyant une ouverture pour le World Wide Web, se rendit aux exigences de l’IETF et rebaptisa les URI, qui devinrent les URL « Uniform Resource Locators » (localisateurs uniformes de ressources). Point important, il fit en sorte que le CERN rendît accessible tous les droits de propriété intellectuelle qu’il détenait sur le Web, et il parvint dans le même temps à doter son standard de règles évolutives, sous la forme du premier navigateur Internet.

Mosaic et « l’Empire » universel du World Wide Web

Il ne faudrait pas, pour autant, placer Berners-Lee sur un piédestal en tant que créateur du Web. Certaines intuitions originales lui reviennent sans aucun doute, à commencer par l’idée d’« universalité », mais ce sont bien les hackers, en tant que groupe social, qui ont créé le Web. Le rôle de Berners-Lee, de Fielding et des autres avait consisté principalement à assurer sans relâche la promotion du Web, à convaincre des hackers talentueux de consacrer leur temps à la création de serveurs et de navigateurs, et à prendre en main le processus politique et social de création des standards du Web. Le Web restait pourtant, et avant tout, entre les mains des hackers.

Mais c’est alors que Marc Andreessen, un étudiant de troisième cycle de l’Illinois, créa en 1993 le navigateur Mosaic. Terry Winograd, un chercheur en intelligence artificielle dont les étudiants n’allaient pas tarder à fonder Google, pouvait dire à ce propos : « J’ai eu la surprise de découvrir à quel point l’ambiance avait changé. Il a tout de suite paru évident que l’intégration des graphiques dans le texte allait faire la différence et qu’il s’agissait d’un phénomène entièrement nouveau( ). » Dans l’année qui suivit, Internet couvrait le monde entier, assurant la fortune de Netscape, navigateur et société créés par Andreessen dans la suite de Mosaic.

Ironie de l’histoire, bien des années avant la mis en place de « l’Empire », l’espace politique universel analysé sous ce nom par Hardt et Negri, les hackers avaient posé les bases d’un espace universel de la technologie( ). Et cette dimension « universelle » n’est pas un vain mot sur le Web : c’est cet espace technologique, en tant précisément qu’il est universel, qui a enclenché les cycles de rétroaction qui ont conduit à l’émergence de l’Empire.

Une crise dans la souveraineté numérique : la guerre des navigateurs

Les aristocrates immatériels de l’IETF perdirent le contrôle du Web en un clin d’œil ; ce fut la première crise dans la souveraineté d’Internet. On avait perçu jusqu’alors l’utilité d’Internet dans la communication à l’échelle mondiale, mais pas son potentiel de création de valeur. À mesure que le Web acquérait une hégémonie sur Internet, il cessait d’apparaître comme un terrain de jeu réservé aux hackers. On y découvrit bientôt la dernière frontière du capital, une frontière que l’on pouvait même repousser à l’infini. Il devait constituer l’épine dorsale de l’« économie de la connaissance » promise par Daniel Bell, ouvrant des perspectives de rendements croissants illimités( ). Le taux d’adoption du Web monta en flèche, la plupart des entreprises décidant tour à tour d’y ouvrir leur propre site. Elles envoyèrent par ailleurs des représentants à l’IETF, très curieuses de rencontrer les éminences grises d’Internet, et prêtes à siéger en masse à leurs réunions pour contrôler les élections. Les représentants en question se trouvèrent plongés dans d’obscures conversations techniques, profondément déconcertés en outre par l’absence d’organisme formel, qui décourageait les tentatives de prise de pouvoir. Faute de s’emparer de l’IETF, les entreprises commencèrent par l’ignorer.

C’est ce qu’elles firent en enfreignant les standards. Pour s’assurer l’adoption du marché, elles comptaient sur une série de « nouvelles fonctions ». La lutte pour la suprématie sur le marché entre les deux principaux rivaux, Microsoft et le petit nouveau Netscape, se traduisit par une escalade dans le domaine des « fonctions », soi-disant au bénéfice des utilisateurs du Web. Ces « nouvelles fonctions » conduisirent en réalité assez rapidement à une situation d’enfermement (lock-in), l’accès à certains sites se trouvant réservé à un navigateur commercial. Le Web, pourtant en pleine expansion, se fractura en une série de fiefs commerciaux qui s’appuyaient sur le travail de l’IETF, mais contribuaient à détruire tant sa « vision » que sa souveraineté. L’idée du Web comme espace ouvert de communication fut remise en cause aussi, quoique sans grand succès, par un nouveau projet de Microsoft consistant à offrir du contenu et des canaux de diffusion. Ce projet revenait à tirer Internet en arrière, pour le ramener à un modèle de communication hiérarchique à sens unique, celui de la télévision.

Les entreprises paraissaient avoir trouvé avec Internet la solution miracle aux problèmes de structurels de main d’œuvre qu’elles s’étaient efforcées de résoudre au moyen de l’intelligence artificielle (en remplaçant l’homme par la machine). En adossant désormais à Internet leur système de communication, les entreprises pouvaient surveiller et contrôler avec une précision croissante leur main-d’œuvre à travers le monde entier, chose impossible à une époque antérieure, lorsque l’espace constituait une limite infranchissable. Un recours accru à l’externalisation du travail s’ensuivit, le « néolibéralisme » se renforça. Les entreprises sillonnaient le monde à la recherche d’une main-d’œuvre toujours moins coûteuse. Les sujets et terrains de conflit se multipliaient et grandissaient dans le même temps, gagnant un potentiel nouveau à travers Internet, qui offrait la possibilité de constituer en réseau les dépossédés à travers le monde. Cela se traduisit par le mouvement, mal nommé, de « l’anti-mondialisation ».

Au moment où Microsoft triomphait de Netscape et n’en laissait guère subsister qu’une coquille vide, une spéculation frénétique conduisait à l’éclatement de la bulle « dotcom », les entreprises qui avaient fait l’objet de très fortes spéculations échouant pour une bonne part à réaliser des profits. Les entrepreneurs qui venaient de se faire une place parmi les aristocrates immatériels perdirent une part considérable de leur pouvoir et ils n’eurent d’autre choix que de fusionner avec les vieux aristocrates, plus établis, de l’âge de la télévision (Cf. AOL-Time-Warner).

Le rétablissement de la souveraineté numérique : le World Wide Web Consortium

En coulisse, les créateurs du Web s’alarmaient des fractures que la guerre commerciale des navigateurs avait provoquées dans l’espace universel d’information. C’était le cas notamment de Tim Berners-Lee. Il s’apercevait que les entreprises étaient en train de trahir sa « vision » initiale d’un espace universel d’information en s’efforçant d’établir, à des fins lucratives, leurs propres fiefs incompatibles sur le Web. Il réalisa, à juste titre, qu’il était dans l’intérêt à long terme, tant des entreprises que des utilisateurs du Web, d’instaurer une nouvelle forme de souveraineté numérique. Grâce au crédit que lui valait son statut informel et exceptionnel d’« inventeur du Web » (bien qu’il reconnût volontiers la dimension collective de l’invention du Web), Berners-Lee décida de reconstituer la souveraineté numérique sous la forme du World Wide Web Consortium (W3C). Cet organisme, à but non lucratif, devait veiller à ce que « le Web réalise tout son potentiel, en développant les protocoles et directives susceptibles d’assurer sa croissance à long terme » (W3C, 2006). Les entreprises ayant décidé d’ignorer l’IETF depuis qu’elles avaient décrété son fonctionnement lent et impénétrable, Berners-Lee renonça progressivement à la démocratie absolue pour lui préférer une forme de démocratie représentative. Ce fonctionnement avait au moins le mérite d’être compréhensible des entreprises, et rien ne les empêchait plus de s’y joindre. Le Web pouvait ainsi composer avec le pouvoir des entreprises, tout en conservant un caractère universel. Berners-Lee était de plus en plus persuadé, d’ailleurs, des limites de la démocratie absolue et des principes informels sur lesquels elle reposait. Elle interdisait selon lui de s’adapter en temps voulu aux désirs des utilisateurs, et ne permettait pas davantage de réfréner les entreprises, qui menaçaient constamment de briser la dimension universelle du Web dans la perspective de gains à court terme. À la différence de l’IETF, qui se contentait de standardiser des protocoles largement utilisés pour la plupart, le W3C allait prendre une série d’initiatives pour déployer des formats universels standardisés avant que des forces diverses, entrepreneuriales ou autres, ne soient en mesure de le faire.

Berners-Lee fut nommé directeur à vie du W3C.

Au sein du W3C, « la qualité de membre était ouverte à des organisations de toute nature : commerciale, éducative ou gouvernementale, à but lucratif ou non ». Contrairement à l’IETF, la participation avait un prix. Il en coûtait 50 000 dollars aux entreprises dont les recettes dépassaient cinquante millions de dollars et 5 000 dollars aux entreprises plus modestes et aux associations à but non lucratif. Le W3C était calqué sur le modèle de la démocratie représentative, chaque organisation membre envoyant un délégué au comité consultatif chargé de la surveillance du Web. L’ouverture d’un espace de « gratuité » permettait d’inviter aux discussions les entreprises qui, jusqu’alors, « ne s’intéressaient aux avancées technologiques que pour leur propre compte ». L’annonce de la naissance du W3C fit l’effet d’un choc : on découvrit que Microsoft et Netscape avaient accepté d’y participer. Netscape mit d’ailleurs un point d’honneur à payer les frais d’inscription de 50 000 dollars, alors qu’il n’y était pas tenu. Paradoxalement, le fait de réunir à la table les deux parties qui détenaient la plus forte responsabilité dans le fractionnement du Web joua dans le W3C un rôle de détonateur et rendit possible une avancée décisive. Le W3C entreprit de standardiser le HTML dans un format gratuit qui allait permettre à n’importe quel navigateur conforme aux standards d’accéder aux pages Web. Alors que l’IETF continuait de publier des « Request for Comments » sous forme de fichiers texte ordinaires en format ASCII, le W3C, toujours à la pointe, publiait ses spécifications sous forme de pages Web bien présentées, accompagnées de graphiques en couleur. Les entreprises s’empressèrent de contribuer au W3C et s’assurèrent que leurs délégués exerçaient des responsabilités au sein des groupes de travail.

Le stratagème de Berners-Lee avait opéré : les entreprises étaient désormais enrôlées dans l’aristocratie numérique du W3C. Née d’un ethos hacker assez modeste, la « vision » universelle qui avait permis l’essor du Web figurait désormais dans la déclaration d’intention du W3C : étendre le Web « à tous, à tout et en tout lieu » (W3C, 2006).

Les hackers avec le W3C… malgré les entreprises

En dépit du soutien que lui accordaient les grandes entreprises, le W3C courait à l’échec s’il se coupait des hackers. Dans le milieu du Web, un truisme veut que les standards, technologies et autres produits réellement novateurs soient le fruit du travail de hackers engagés, qui « font par amour ce que d’autres font pour de l’argent » – la quête d’un perfectionnement de la technologie.

Le fonctionnement ouvert et informel de l’IETF assurait une prééminence aux hackers dans la souveraineté numérique, au détriment des entreprises, mais le W3C devait constamment négocier entre les uns et les autres pour servir les intérêts du Web. Si le W3C se contentait de produire des spécifications de second ordre, maquillant trop légèrement les services qu’il rendait aux entreprises au détriment des usagers du Web, il éloignait les hackers – et il mettait en péril tout ce que la souveraineté numérique incarnait, de façon mythologique, en la personne de Berners-Lee. Parce qu’il reposait toutefois, à la différence de l’IETF, sur les fonds rassemblés par des contributeurs entrepreneuriaux, « le W3C disposait d’une équipe réduite, employée à temps plein, qui lui permettait de concevoir et de développer le code lorsque cela s’imposait »( ). Cela autorisait en outre Berners-Lee à recruter quelques-uns des hackers parmi les plus brillants. La modicité des frais d’inscription permettait aux hackers de participer au W3C sans considération de statut, qu’ils aient été employés en entreprise ou établis à leur compte.

De leur côté, les groupes de travail qui détenaient un pouvoir de décision sur l’un ou l’autre des standards se réservaient la possibilité de proposer un poste d’« expert invité », qu’ils confiaient généralement à un hacker prestigieux. Pour que ces hackers, dont il eût été impossible de s’assurer les services dans d’autres conditions, acceptent d’y participer, la plupart des listes de discussion demeuraient ouvertes (y compris les listes de procédures les plus importantes, celles qui garantissaient la transparence de l’organisation), et chaque standard faisait l’objet d’un long processus de commentaires et de révisions. Si une décision rencontrait une opposition, celle-ci devenait publique et le W3C devait en rendre compte. Le W3C parvenait ainsi, et simultanément, à tirer profit de la productivité immatérielle et hors mesure des hackers, et à s’assurer la fidélité des entreprises en veillant à leur prospérité matérielle. Reste que, de toute manière, les entreprises ne pouvaient pas se passer des hackers, moteurs de l’innovation dans le secteur du numérique.

Après la standardisation du HTML, le W3C remporta un second succès en inventant le XML (eXtended Markup Language), une version simplifiée de l’ancêtre du HTML connu sous le nom de SGML, qui pouvait servir de syntaxe universelle pour transformer presque tout type de données sur le Web. Il avait été conçu à l’origine pour séparer le style et le contenu, mais on commença rapidement à l’utiliser dans la perspective plus générale d’un format de données, une sorte d’équivalent pour le Web de la norme ASCII. Parce qu’il alliait la simplicité chère aux hackers et la convivialité nécessaire à une large adoption par les entreprises, il ne tarda pas à conquérir le Web, permettant aux innombrables bases de données entrepreneuriales et gouvernementales de fusionner. Il est aussi à l’origine de la création de ce qu’on appelle les flux RSS, qui permettent aux sites Web de s’informer de leurs mises à jour respectives.

Lénine dans la Silicon Valley ?

Venons-en plus précisément à la multitude. Comment peut-on la faire passer du virtuel à l’actuel ? C’est une critique qui revient souvent : les théoriciens de la multitude n’auraient pas de projet concret. Nous ne disposons il est vrai, pour l’instant, que de revendications utopiques (ou pas si utopiques) : la citoyenneté mondiale et le revenu garanti. Nous espérons toutefois que cette enquête sur l’histoire du Web permette d’ouvrir une brèche : défendre et lutter pour une infrastructure technologique susceptible d’augmenter la puissance de la multitude. Car cette infrastructure ne s’est pas écrite dans les étoiles, elle est l’œuvre collective d’individus impliqués. Elle aurait pu prendre une tout autre tournure. Un écho de Mario Tronti nous revient : « Alors peut-être découvrira-t-on que se sont déjà produits et se produisent continuellement( ). » Il se trouve justement que nous disposons d’un modèle pour la multitude, et ce modèle n’est rien d’autre que l’infrastructure technique du Web. Internet « est le premier exemple de cette structure de réseau démocratique. Un nombre indéterminé et potentiellement illimité de points interconnectés communiquent sans point central de contrôle : tous ces points, sans considération de localisation territoriale, sont reliés entre eux par une myriade de chemins et de relais potentiels »( ).

Le problème n’est pas que « le point le plus dur [soit le passage à l’organisation »( ). Le problème de l’heure, c’est la lutte pour conserver l’ouverture, l’universalité et la gratuité/liberté du Web, sa structure rhizomatique : « une structure de réseau sans hiérarchie ni centre »( ). Lénine n’est pas dans la Silicon Valley et il ne prépare pas le programme politique de la révolution. La beauté du Web, c’est précisément de rendre obsolète la figure de Lénine. Plutôt que de prendre modèle sur les oligarchies et les avant-gardes, les révolutionnaires feraient mieux, aujourd’hui, de s’inspirer des situationnistes : la révolution ne sortira pas d’un projet politique. Les situationnistes ont compris que la création de situations, et elle seule, transforme les gens en multitude, lorsqu’ils prennent la mesure de leur propre force et parviennent à créer des connexions – des relations et de l’action. Ces situations ne se créent pas d’abord dans les carnavals ou les luttes autour de la précarité du travail ; elles se créent dans l’infrastructure technique. C’est dans l’espace d’information du Web que la multitude se définit et se constitue, face à l’Empire, en antagoniste universel.

Les désirs de la multitude sont le moteur du Web

Le fin mot de notre enquête, c’est que les aristocrates immatériels ne sont pas le moteur du Web, quand bien même leurs idées auraient contribué à en créer l’infrastructure. Le moteur du Web n’est rien d’autre que le travail immatériel, les désirs collectifs de l’humanité. Les souverains numériques tirent leur pouvoir de leur capacité à répondre aux besoins et désirs des « utilisateurs » – l’humanité au sens large –, et au désir de la multitude potentielle qui porte, toujours davantage, l’avènement d’un système de communication universel, sa standardisation et sa mise en commun. Pour ne prendre que cet exemple, le désir immense, chez l’enfant le plus incapable de se servir des technologies, d’écouter de nouvelles musiques, de communiquer avec les autres, de rester « en contact » avec ceux qu’il aime – et le tout sans dépenser d’argent – est en soi révolutionnaire.

Ces désirs d’amélioration de la technologie n’appartiennent pas en propre aux aristocrates immatériels ; ce sont les désirs communs de l’humanité. C’est parce qu’ils créent les moyens techniques qui permettent de satisfaire ces désirs, tout en négociant avec différentes instances impériales, que les aristocrates immatériels conservent leur souveraineté. Le partage de la musique est un bien commun que l’ancienne aristocratie, celle qui régnait jusqu’ici sur la musique, l’industrie du disque, cherche à déjouer à tout prix. Les aristocrates comme Steve Jobs, qui savent négocier avec le pouvoir de l’industrie du disque pour offrir aux utilisateurs la possibilité de copier et d’écouter de la musique à travers le numérique et moyennant un coût très modique, sont ceux dont le pouvoir va s’accroître. Résister aux désirs des multitudes, sur le Web, revient à nager à contre-courant. C’est le potentiel de la multitude qui dirige les aristocrates immatériels – et c’est lorsqu’ils le comprennent qu’ils s’assurent une souveraineté.

L’orientation technique de l’avenir se joue dans la relation très étroite entre le Web et la multitude : le Web doit préserver à tout prix sa dimension universelle s’il veut ouvrir le champ, plus encore qu’aujourd’hui, à la création de la multitude. S’il y a un potentiel révolutionnaire intrinsèque – qui ne se réalise pas toujours – à la structure en réseau du Web, alors il faut le défendre contre toutes les menaces de destruction. Même si, à l’évidence, l’aristocratie immatérielle – l’IETF et le W3C –, a partie liée avec le régime impérial, il convient de rappeler que ces organismes sont motivés, d’abord et avant tout, par la joie qui consiste à créer et assurer la maintenance du réseau technique, et qu’ils sont étroitement impliqués dans la préservation du caractère universel du réseau. S’ils en prennent la mesure, les partisans de la démocratie absolue doivent rejoindre la cause de ces organismes et les aider à affronter les diverses tentatives de corruption (ICANN), l’hégémonie commerciale (Google) et les desseins impérialistes des gouvernements (World Summit on the Information Society).

Puisque ces aristocrates immatériels fonctionnent de manière démocratique, et même de manière absolument démocratique dans le cas de l’IETF, il faut et il suffit que les révolutionnaires s’y impliquent, qu’ils leur consacrent du temps, pour sortir par le haut du dernier épisode de la crise que traverse la souveraineté numérique. Le chemin le plus direct consiste à établir des liens avec l’aristocratie immatérielle, en assistant par exemple à une réunion de l’IETF ou en participant à une liste du W3C. Il peut consister aussi à construire des alternatives à la souveraineté numérique, telles que l’exploration des logiciels peer-to-peer ou la création de forums alternatifs comme les World Summits on Free Information Infrastructures. Cette brève exploration de la souveraineté numérique pourrait y contribuer en insistant essentiellement sur un point : tout cela est à notre portée. Nous approchons d’un carrefour et il est temps de passer à l’action. L’avenir s’y joue peut-être.

Traduit de l’anglais par Christophe Degoutin