Pair-à-pair, grille, certificats, filtres Projets, objets et plates-formes technologiques influençant l’avenir d’Internet

Dans cet article, nous essayons de recenser et de catégoriser les projets les plus connus, les objets et les plates-formes technologiques de partage de ressources et de répartition des tâches sur l’Internet. En dépit de la mobilisation d’un arsenal législatif restrictif, voire répressif, contre l’usage de telles technologies, et malgré les attaques en justice orchestrées notamment par l’industrie des contenus audiovisuels, nous soutenons que le développement des outils de partage et de répartition marque un processus irréversible de dés-asymétrisation de l’Internet.

In this article, we attempt to register and categorize some of the major projects, objects and technological platforms of resource sharing and task distribution on the Internet. Despite the mobilization of a wide range of restrictions or even repressive measures against the use of such technologies, with the cultural industry now engaging legal proceedings, we believe that the tools of sharing and distribution have reached a point where the process of eliminating asymmetries on the Internet is irreversible.
La « crise de la nouvelle économie » semble déjà lointaine. Il y a seulement cinq années, cette crise balaya la plupart des « point.com », de jeunes entreprises qui espéraient tirer profit du développement exponentiel de l’Internet, et s’étala sur l’ensemble des secteurs de l’économie mondiale. Sur ce fond, tout le paysage constituant le « réseau des réseaux » a subi depuis des transformations importantes – la survie de quelques entreprises de commerce électronique comme Amazon ou e-bay (devenues désormais géantes), le passage d’un grand nombre de services d’administration publique sur Internet, l’évolution de la présence sur le Web des médias traditionnels et la vague massive des blogs et autres publications individuelles en sont quelques repères.
Il convient peut-être de considérer ces transformations comme causes et symptômes à la fois d’une crise de développement de l’Internet, qui en ces termes a été amplement analysée et commentée. Cependant, les travaux qui se focalisent sur les éléments qualitatifs de l’évolution de l’Internet durant ces cinq dernières années sont beaucoup moins nombreux, et viennent notamment d’« acteurs » directement impliqués dans l’évolution du Net.
Dans ce qui suit, nous allons procéder à une succincte présentation de certaines technologies d’Internet qui connaissent actuellement une expansion au quotidien et sont en train de transformer la nature du réseau (telle que nous la connaissons depuis la naissance de la Toile). Certaines des questions soulevées font l’essentiel de nos conclusions.

Internet : instantané flou
Du point de vue des utilisateurs, nous pouvons distinguer trois composantes (qui constituent autant de marchés) : les terminaux d’interconnexion, les modes d’accès au réseau (dont le paramètre le plus caractéristique est la bande passante) et les contenus accessibles via le réseau.
Une partie très importante des ordinateurs/terminaux connectés au réseau consiste en machines ayant une capacité de stockage, une puissance de calcul et des appareils « périphériques » (écran, imprimante…) leur permettant d’enregistrer, gérer et présenter des contenus audiovisuels et sonores aussi bien que du texte. L’évolution des capacités des nouvelles générations de machines suit toujours la fameuse « loi de Moore », qui prévoit le doublement de la densité des puces (et par conséquent de leur puissance) tous les 18 mois. Il faut noter aussi l’apparition de terminaux mobiles (comme par exemple les téléphones portables). De façon similaire, en ce qui concerne l’accès au réseau, la chute des prix des services de télécommunication, l’augmentation de la bande passante offerte aux utilisateurs (par exemple la connexion ADSL ou la connexion par câble télé qui sont maintenant à des prix abordables) ont permis de parler de connexion généralisée de parties significatives de la population des pays développés (à la fin de 2005, il y avait en France plus de 8,5 millions de connexions rapides([[Selon l’ARCEP ; voir http://www.journaldunet.com/cc/02_equipement/equip_hautdebit_fr.shtml (2006))) ; et en même temps, les points de connexion sans fil à haute vitesse (wifi) font leur apparition dans de nombreux lieux publics en Europe, les premières licences nationales de wimax ont déjà été attribuées, et une liste de 45 candidats aux licences régionales a été dressée. La grande majorité des connexions supporte également le transport de gros fichiers (p.ex. les documents hypermédia à contenu audiovisuel, les clips sonores, etc.)
Quant à la troisième composante du réseau, c’est-à-dire les contenus offerts, il faut noter l’état actuel de mûrissement des moyens techniques et des normes qui ont rendu possible l’exploitation de ces premiers par tout utilisateur. Comme étapes importantes de ce processus, on peut mentionner le développement des langages de programmation exécutables sur les terminaux, mais indépendants de leurs caractéristiques particulières, comme java pour le calcul ou bien les différents langages de balises (*ml) pour la préparation de documents, la standardisation du logiciel-interface de navigation, la normalisation des formats de fichiers échangés – mp3 pour les contenus sonores, jpeg et gif pour l’image fixe, rtf et pdf pour le texte, etc. Un processus similaire de standardisation semble être en oeuvre du côté de la conception et de la mise en service des sites, où l’on peut distinguer l’avènement d’une nouvelle génération d’outils plus maniables pour la création de sites, permettant aussi la gestion séparée du contenu, de l’architecture et du graphisme des sites.
C’est sur ce fond technique, que nous venons de décrire très sommairement, qu’est configurée l’activité humaine autour de l’Internet. Cependant, avant de revendiquer le droit de formuler des hypothèses pour l’avenir de l’Internet par l’extrapolation directe de ces « acquis du réseau », il faudrait considérer la façon dont son développement a pu être assuré. La question de savoir qui a payé, et comment, pour chaque composante du réseau, se trouve naturellement au cœur d’une telle tentative d’analyse. S’il est clair que pour les terminaux, ce sont les utilisateurs qui paient, et que pour l’infrastructure c’est l’État et/ou les fournisseurs d’accès privés (qui sont financés par les impôts, ou vendent leurs produits), que dire pour les volumes d’information offerts sur la Toile ? Une réponse partielle séparerait le contenu de l’Internet en trois catégories économiques : primo, l’information qui était publique avant l’ère du réseau, et n’était facturée que sur la base du coût de sa diffusion (p.ex., les publications universitaires). Ce sont exactement ces coûts qui sont devenus négligeables avec l’Internet, et en permettent ainsi la gratuité. Secundo, l’information protégée par des droits d’auteur et qui circule librement sur le réseau – la diffusion illégale. Tertio, l’information ou le service informatique qui est financé par paiement électronique (sous diverses formes : facturation par produit, par accès/abonnement, etc.) ou qui est offert gratuitement à l’utilisateur, étant financé par la publicité. Last but not least, le financement de l’accès aux informations se fait par la publicité ciblée (ou plutôt des suggestions de navigation), qui a fait des grosses machines de recherche – notamment Google – les plus grands publicitaires de la planète.
Le point de rencontre entre structure technique, type d’activité économique et cadre législatif concernant le réseau est le schéma de division asymétrique entre fournisseur et consommateur d’information. En termes d’architecture de réseau, on parle de serveur et de client ; il convient bien d’appeler ainsi le paradigme de réseau dressé par la Toile mondiale.
Or, la matérialité d’interconnexion permet déjà de réaliser un potentiel de création et d’expression dépassant de loin le simple téléchargement d’un petit bout de l’hypertexte géant qu’est la Toile. Elle permet de revenir à la mission originale du réseau, c’est-à-dire au partage et à la répartition de l’information. Le chemin passe par les technologies de ser veur-cli ent (servent)[7 qui configurent des réseaux « entre égaux »[8, qui ne sont pas accrochés sur le réseau de façon permanente, mais constituent une « Toile transitoire »[8 : ce sont des technologies de partage et de répartition.
Il faut préciser ici que sous ce terme sont regroupés des logiciels dont la source est disponible et gratuite, des spécifications de protocoles devenus standards de fait et des produits commerciaux. Ce n’est pas d’ailleurs le moindre des paradoxes que ces technologies qui en principe vont à l’encontre d’un concept mercantiliste traditionnel du réseau, convergent sur le seul fond du marché informatique.

Projets, objets et plates-formes technologiques de partage et de répartition
Dans le site zeropaid.com([[[7 Visité en janvier 2006.), sont recensés quelques centaines d’outils de partage et de répartition pour tout ordinateur sous Windows, MacOs ou Linux. Nous les avons divisés en trois grandes catégories comme suit :

(i) Partager la puissance de calcul / répartir des problèmes : grilles de calcul (distributed.net, Boinc([[http://boinc.berkeley.edu/ (2006). Voir aussi D.P. Anderson, « BOINC: A System for Public-Resource.
Computing and Storage ». 5th IEEE/ACM International Workshop on Grid Computing, pp. 365-372. 2004, Pittsburgh, PA, USA.), GIMPS, Folding@home, Grid.org)
Parmi les premiers projets de logiciel de répartition de grands problèmes de calcul en tâches exécutables sur des terminaux Internet, on trouve distributed.net([[http://www.distributed.net) . Il s’agit d’une association à but non lucratif. Fondée en 1997, elle regroupe des utilisateurs de par le monde qui mettent leurs ordinateurs à contribution dans le cadre de projets nécessitant des ressources calculatoires phénoménales. La puissance de calcul de distributed.net était déjà en 2003 équivalente à celle de 160 000 ordinateurs dotés d’un processeur PII 266Mhz tournant 24 heures sur 24, 7 jours sur 7, 365 jours par an. Il suffit de présenter un problème de calcul à intérêt scientifique et son programme pouvant répartir la charge de calcul, pour utiliser la puissance de distributed.net.
Avec ces principes de fonctionnement basés sur le « volontariat » et sur le modèle de la communauté scientifique, plusieurs problèmes ont pu être traités[1. La simplicité du procédé de participation au distributed.net en a fait un modèle pour plusieurs projets de traitement réparti des problèmes de calcul intensif (micro-physique, astronomie, mathématiques pures, etc.) à très grande échelle par des amateurs de la science.
Aujourd’hui, la plate-forme logiciel la plus populaire pour traiter des calculs répartis sur plusieurs milliers de machines connectées à l’Internet, est le Boinc (Berkeley Open Infrastructure for Network Computing), qui a été conçu et développé à l’université de Berkeley. Une fois activé, Boinc s’adresse périodiquement aux serveurs d’ordonnancement de tâches des projets auxquels on souhaite participer, communique les résultats du calcul effectués pendant les périodes d’inactivité des utilisateurs de la machine, et reçoit de nouvelles tâches. Au début 2006, Boinc est installé sur environ 450 000 machines (dans [1 il est estimé qu’aujourd’hui 1 million d’ordinateurs participent à des projets de partage de puissance de calcul, ce qui fait moins que 0,1% de l’ensemble des ordinateurs actuellement en marche), pour la plupart des ordinateurs personnels, permettant à leurs propriétaires de donner de la puissance de calcul à une vingtaine de projets, dont :
[Climateprediction.net->http://climateprediction.net/, pour l’étude des changements climatiques,
[Einstein@home->http://einstein.phys.uwm.edu/ : pour la recherche d’ondes gravitationnelles venus de l’espace lointain,
[LHC@home->http://lhcathome.cern.ch/ pour perfectionner la conception du nouvel accélerateur LHC du CERN
[Predictor@home->http://predictor.scripps.edu/, [Rosetta@home->http://boinc.bakerlab.org/rosetta/, pour l’étude des molécules de protéines, et des maladies,
[SETI@home->http://setiathome.berkeley.edu/, pour la reconnaissance de signaux émis par des civilisations extraterrestres,
[Cell Computing->http://www.cellcomputing.net/, et [World Community Grid->http://www.worldcommunitygrid.org/, pour la recherche biomédicale.

(ii) Partager des fichiers : BitTorrent, Gnutella, KaZaaLite, e-Donkey2K…
Napster a été le premier logiciel à permettre la recherche et le téléchargement de fichiers mp3 stockés sur les ordinateurs des utilisateurs. Il fallait toujours, néanmoins, passer par un serveur central – un site Napster – qui mettait à jour la liste des fichiers disponibles chez les utilisateurs. En général, il s’agissait d’un système fermé : la société Napster espérait avant tout s’enrichir de son produit. Après un succès grandissant, Napster a été attaqué en justice par l’industrie musicale pour non-attribution de droits d’auteur (la plupart des fichiers mp3 échangés avec Napster étaient des chansons protégées par copyright), qui l’a obligé à restreindre ses activités et finalement à fermer. Napster a ouvert la voie aux systèmes de partage de fichiers.
Peu avant son procès, une technologie d’un autre genre a fait son apparition : Gnutella [4,5, qui peut être considéré comme un ensemble de spécifications d’un protocole d’échange de fichiers entre utilisateurs de l’Internet. Cela signifie que Gnutella est une sorte de documentation publique, pas une société, et par conséquence inattaquable en justice. Le principe de fonctionnement de Gnutella est une sorte de diffusion des requêtes des fichiers : si un utilisateur cherche un fichier (p.ex. une chanson à partir de son titre), la requête est d’abord adressée à ses voisins immédiats, qui entretiennent tous une liste des fichiers qu’ils hébergent : si le fichier cherché ne figure pas dans leurs listes, ils transmettent à leur tour la requête à leur voisins et ainsi de suite, jusqu’à ce qu’ils trouvent le fichier recherché ou, le cas échéant, jusqu’à ce qu’ils aient effectué un nombre prédéfini d’étapes de recherche. Il n’existe donc pas de liste centrale des contenus d’un réseau d’ordinateurs équipés avec ce protocole de communication. Ce mode de fonctionnement garantit le caractère décentralisé de Gnutella, mais il est relativement lent et difficilement applicable sur un grand nombre de participants (plus que 10 000)[7.
La formule de Gnutella a été mise au point en 2000 ; dans les mois qui ont suivi elle a été la base de toute une constellation de logiciels-applications qui transforment le terminal d’utilisateur en « servent » : Bearshare et Bearshare Lite, Limewire, Aquisition, P2PStorm et Xolox comptent parmi les plus connus. Au mois d’août 2001, on pourrait compter environ 40 000 utilisateurs connectés simultanément sur des réseaux « pair-à-pair » de type Gnutella[7. Leur principal défaut réside dans la lenteur de la recherche des contenus. Il faut aussi noter l’apparition de Mandragore, le premier virus pour Gnutella [8.
BitTorrent et ses variantes, qui sont devenus entre-temps les logiciels les plus utilisés dans le partage des fichiers, reprennent les idées d’autres plates-formes comme Gnutella, tout en améliorant leurs performances.
Une autre plate-forme technologique, propriété privée cette fois, a été Fasttrack, un protocole qui se trouve à la base de logiciels d’échange de fichiers comme KaZaA, Grokster et Morpheus([[À partir de février 2002, Morpheus n’utilise plus la plate-forme de Fasttrack.). Ces logiciels ont appliqué en général le principe d’abonnement, pour verser des forfaits aux associations de gestion des droits d’auteur. Au mois d’août 2001, on pouvait compter jusqu’à 300 000 utilisateurs simultanés de ces logiciels, ce qui correspondait à 18 millions de téléchargements de logiciels (dont 9,1 millions pour le seul KaZaA)[7. KaZaA a été attaqué devant les tribunaux en 2001 par la puissante Fédération internationale de l’industrie phonographique (dont le membre le plus important est l’américaine RIAA). KaZaA et Grokster ont collaboré avec des sociétés de marketing pour incorporer dans leur logiciel des composantes qui enregistrent le parcours de navigation des utilisateurs à leur insu (« addware » et « spyware »), et renvoient ces données à des sites spécialisés dans le marketing ciblé ; des variantes comme KaZaAlite et Clean Grokster, en logiciel libre, ne contiennent pas de telles composantes. À la fin de 2003, il y avait au total environ 3 millions d’utilisateurs simultanés des réseaux pair-à-pair fondés sur Fasttrack [7. Après la plainte de la société de production audiovisuelle MGM, soutenue par la RIAA, Grokster a été aussi contraint de fermer en 2005.
On peut compléter le tableau avec des protocoles qui ont rencontré des succès variés, comme eDonkey2000 qui est fondé sur une évolution du « vieux » système de téléchargement de fichiers ftp, ainsi que des logiciels multi-réseaux pair-à-pair, comme [xFactor->http://www.zeropaid.com/xfactor/, [Ares->http://www.zeropaid.com/ares/, [SoulSeek->http://www.zeropaid.com/soulseek/, [Morpheus 5.0 ->http://www.zeropaid.com/morpheus5.0/etc.
Aujourd’hui, des logiciels libres comme AllPeers([[http://www.allpeers.com (2006)) promettent d’ajouter directement (en applettes) sur un navigateur Web (Firefox) des fonctionnalités de partage de fichiers de tous types de contenu entre les membres d’une liste, en utilisant la méthode de Bittorrent et en protégeant l’échange par un système de cryptage.
Le paysage de plates-formes de partage de fichiers reste très mouvementé. On peut certes observer un regroupement « naturel » autour de quatre protocoles (Gnutella, Fasttrack eDonkey et BitTorrent), chacun d’eux ayant un nombre croissant d’implémentations. Toutefois, les frontières techniques entre les plates-formes pair-à-pair sont très floues, et la distinction se joue dans leur recours, ou non, au cryptage des échanges.

(iii) Partager l’espace libre / répartir les fichiers : Freenet et autres « darknets » [6, 1b.
Freenet est une spécification (comme Gnutella) pour un protocole permettant [l’utilisation de ? ?? l’espace disque de tous les utilisateurs par chacun d’eux. Il n’est pas directement lié à Internet, mais les logiciels Espra et Frost, application de Freenet, fonctionnent avec des utilisateurs connectés à Internet[7.
Freenet utilise de façon ingénieuse des techniques de cryptographie pour assurer l’anonymat du chercheur, du fournisseur et de l’hôte des fichiers. Cela signifie qu’il est extrêmement difficile de savoir qui demande un fichier donné, qui l’a inséré dans le réseau, et où il est hébergé. Il est également difficile pour un utilisateur de connaître le contenu des fichiers qui sont stockés dans son disque. Les requêtes de fichiers se propagent de la même manière qu’avec Gnutella. Cependant, une différence capitale entre les deux protocoles est que, dans le cas de Freenet, une fois le fichier trouvé, il est recopié sur les disques de tous les ordinateurs qui se trouvent sur le chemin qu’a traversé la requête, en supprimant éventuellement les fichiers les moins recherchés. Ce principe induit une auto-organisation du réseau, et plus précisément un « mode de vivre » des contenus (qui sont maintenus au fur et à mesure qu’il sont demandés, et retrouvés d’autant plus rapidement qu’ils sont le plus demandés) et une topologie de stockage (les fichiers à titres codés similaires se trouveront sur des ordinateurs voisins). Comme avec Gnutella, il n’y a pas de faille centrale sur un réseau Freenet.
Ces traits particuliers de Freenet impliquent un autre modèle de réseau :
– À cause de l’anonymat complet des facteurs d’échanges, le commerce dans le sens classique n’est pas possible. Espra comprend en effet un système de rémunération pour les droits d’auteur, etc., mais ceci constitue une sorte d’économie du don, et non un système de prix. De plus, la notion d’adresse, ainsi que les métaphores spatiales pour parler du réseau, deviennent obsolètes.
– La similarité syntaxique devient le mode dominant d’accès aux contenus du réseau. Cela privilégie un mode de pensée et un modèle d’activité sociale basés sur l’associativité.
– La dynamique d’évolution d’un réseau Freenet, étudiée par ses concepteurs à l’aide de simulations, est celle décrite par le modèle du « petit monde »[7, 8, où il y a un petit nombre de participants avec un grand nombre de voisins, tandis que la plupart des participants n’ont que peu de voisins. Ce modèle assure une cohésion remarquable, même quand un grand nombre d’utilisateurs n’est pas connecté.
– De même, la diffusion d’un contenu suit le modèle du « petit monde »[14 : la publicité n’a plus de sens, et les portails ne peuvent plus réguler le flux d’informations : pour qu’un contenu devienne « célèbre », rien ne vaut un système qui est l’équivalent du « bouche à oreille ».
Il est clair qu’une société marchande, qui n’est pas organisée comme un « petit monde » mais comme un grand magasin, trouvera dans Freenet beaucoup d’usages incompatibles avec l’utopie imaginée par ses concepteurs. Il est également sûr que tout réseau de la nouvelle génération incorporera nombre des caractéristiques de Freenet([[Ces créateurs viennent d’annoncer une nouvelle version (0.7) pour début 2006.), qui est apparu un peu en avance sur son temps. Il semble que cela soit déjà le cas pour un nombre croissant de ces « réseaux obscurs » qui sont utilisés, entre autres, pour copier les dernières productions hollywoodiennes[10.
On peut situer les différents projets, objets et plates-formes technologiques recensés dans cet article par rapport aux certitudes et aux attachements de l’univers qu’il impliquent, en s’inspirant de la construction de B. Cathelat [5. Toutefois, on ne pourra pas éviter une double mise en garde quant à l’interprétation de ce schéma : primo, les technologies qui se trouvent « en dessous » de ces projets et objets complexes ne sont pas intrinsèquement liées à une situation ou une dynamique d’incertitude ou d’attachement. L’exemple le plus manifeste en est la cryptographie qui se trouve à la base des certificats numériques qui garantissent l’identification, et de Freenet qui garantit l’anonymat. Secundo, les quatre « régions » du schéma correspondent à des architectures qui sont en train de formater en même temps l’Internet ; elles ne représentent guère des moments différents de son évolution.

Projets, objets et plates-formes technologiques de sécurisation et de stabilisation d’échanges et transactions
La prolifération des plates-formes de répartition et de partage a, depuis ses débuts, posé le problème du contrôle des flux de contenu, tant pour des raisons de pertes de profits, que pour tout ce qui concerne les censures et espionnages en tout genre.
Vers la fin de 2005, il est devenu plus clair que jamais que les majors de la production audiovisuelle étaient résolus à pénaliser tout partage de fichiers protégés par des lois de copyright – d’ailleurs déjà draconiennes aux États-Unis. En même temps, les lois dites « anti-terroristes » qui étaient en train d’être appliquées un peu partout dans le monde développé, demandaient virtuellement la surveillance et le stockage de toute information échangée entre internautes. Deux partenaires, un combat à trois facettes : outre des condamnations d’internautes pour violation des lois de copyright, une alliance des grandes entreprises de l’informatique s’est mise en œuvre pour incorporer à leurs produits des éléments qui interdisent tout « mauvais comportement » – sauf, évidemment, si l’intérêt national l’exige ! Ainsi, le Trusted Computing Group, formé en 2003 par des sociétés informatiques comme IBM, Microsoft, Intel, Infineon ou HP (on compte au total 125 participants([[Voir https://www.trustedcomputinggroup.org/about/members/ (2006))), travaille sur un éventail de techniques dont l’élément commun est la possibilité d’identification de toute machine connectée à Internet, et du logiciel qu’elle est en train d’exécuter ; cette possibilité permettra le contrôle absolu de la diffusion des contenus numériques, qu’il s’agisse de documents (p.ex. des œuvres audiovisuelles, de la musique…) ou de logiciels. Un point très important est que les techniques de « trusted computing » concernent le logiciel, mais aussi le matériel (chipset) d’un ordinateur. Sur un deuxième front, il est question d’intervenir sur l’architecture de l’Internet, tant au niveau de la connexion des terminaux – avec la médiation des proxies, NAT et autres « murs de sécurité », qu’au niveau des « nœuds de commutation » (des « routeurs »), pour sécuriser et en même temps filtrer les flux de données émis et reçues. Sur un troisième front, des grandes entreprises de l’entertainment, alliées aux fournisseurs de terminaux autres que des ordinateurs (consoles de jeu, lecteurs DVD, baladeurs numériques) proposent des services de vente légale des produits audiovisuels (en multipliant les options : abonnement, vente à la séance, vente de morceaux de musique à l’unité), sur le modèle connu des réseaux fermés et hiérarchiques.

Questions de discorde et architectures induites
Les questions soulevées font déjà la une des quotidiens :
– Peut-on trouver une solution « juste » pour les auteurs des contenus, sans pour autant mettre en crise tout le modèle d’activité économique des industries culturelles ?
– Est-il inévitable de libérer (pour une fois, le terme sonne juste dans son contexte) la répartition et le partage de l’information, en instaurant une licence globale, comme celle accidentellement votée à l’Assemblée Nationale avant les vacances de Noël ? N’y a-t-il aussi un spectre des normes juridiques, exprimant toute la complexité de la gestion des droits d’auteurs des produits numériques ?
– De l’autre côté, est-il raisonnable qu’une entreprise de fabrication d’un bien qui, « tout en étant vendu, reste à son propriétaire », veuille capturer toute la valeur contenue dans son produit ?
– Enfin, est-il possible de contenir toute l’activité humaine autour de l’Internet, d’autant plus que ce « réseau des réseaux » devient de plus en plus l’autoroute de toute information et la plate-forme de tout type de télécommunication, à des modèles n’exploitant qu’une petite partie des possibilités qu’il offre ?
Ces questions, loin d’être secondaires, viennent juste d’être posées et commencent à être débattues dans l’espace publique…

« Au-delà, cette machine grammatologique devient capable d’assumer la métrologie de l’échange, intégrant le commerce, au sens large. Dans tous les environnements d’information ou de communication, des standards se fédèrent en normes, répondant de plus en plus aux besoins d’ouverture et de complexité structurelle qui les rend capables d’être universellement compatibles et interopérables. Ils participent à la construction de ce qui pourrait être une utopie fondatrice, sinon un nouveau mythe pour nos civilisations : une machine grammatologique », notaient J.-M. Borde et H. Hudrisier dans [6.
Néanmoins, notre petit survol des technologies des réseaux « entre pairs » développées au moment de passage de l’Internet (et par conséquent, de notre civilisation([[Voir aussi dans [6 pour une analyse exhaustive de cette notion.)) à une nouvelle étape de son existence, rend visible le fait que cette machine grammatologique que les auteurs voient émerger serait autrement plus complexe qu’un hypertexte géant.
Le partage des ressources et la répartition des charges, principes constitutifs de tout « être ensemble », sont facilités par les technologies qui suppriment la division entre serveurs et clients et permettent à tout chacun, qu’il soit connecté de façon permanent ou occasionnellement sur le réseau, de communiquer son information à tout autre.
Ces principes peuvent provoquer une mutation de l’Internet actuel vers ce que certains ont appelé la « Toile transitoire » [8, où toute présence est fluide, où le réseau ne peut plus être pensé en tant que lieu, mais plutôt en tant que milieu.

[1 D.P. Anderson and G. Fedak, The Computational and Storage Potential of Volunteer Computing. Accessible sur [http://boinc.berkeley.edu/boinc_papers/internet/paper.pdf->http://boinc.berkeley.edu/boinc_papers/internet/paper.pdf (2006)
[2 R. Anderson, « Trusted Computing » and Competition Policy – Issues for Computing Professionals dans Upgrade Vol. IV, issue no. 3, June 2003, Open Knowledge Accessible sur http://www.upgrade-cepis.org/issues/2003/3/upgrade-vIV-3.html (2006)
[3 J.-M. Borde, H. Hudrisier, Au coeur de la technologie du document, dans Solaris n°6, Décembre 1999 / Janvier 2000, accessible sur : [http://biblio-fr.info.unicaen.fr/bnum/jelec/Solaris/d06/index.html->http://biblio-fr.info.unicaen.fr/bnum/jelec/Solaris/d06/index.html (2006)
[4 P. Biddle, P. England, M. Peinado, et B. Willman, The Darknet and the Future of Content Distribution, ACM Workshop on Digital Rights Management, novembre 2002, accessible sur : [http://www.crypto.stanford.edu/DRM2002/prog.html->http://crypto.stanford.edu/DRM2002/prog.html (2006)
[5 Dominique Boullier, Franck Ghitalla, Pergia Gkouskou-Giannakou, Laurence Le Douarin Aurélie Neau : Outre-lecture, Manipuler, (s’)approprier, interpréter le Web, Éditions BPI, 2004.
[6 H. Hudrisier, L’Ère des machines grammatologiques : la normalisation des technologies de l’information comme attracteur de leur convergence, mémoire d’habilitation à diriger des recherches, université Paris 8, décembre 2000
[7 http://www.zeropaid.com (2006)
[8 http://www.openp2p.com (2006)
[9 [http://www.unitethecows.com->http://www.unitethecows.com/ (2006)
[9 Th. Hong, I.Clarke, O.Sandberg, B.Wiley, Freenet : A Distributed Anonymous Information Storage and Retrieval System, dans International Workshop on Design Issues in Anonymity and Unobservability, LNCS 2009, éd. H. Federrath. Springer, New York 2001.
Accessible sur http://freenet.sourceforge.net/icsi-revised.ps (2001)
[10 J. D. Lasica, Darknet : Hollywood’s War against the Digital Generation, J. Wiley and Sons, Hoboken, NJ, 2005.
[11 L.Lessig, Governance, dans The COOK Report on Internet Vol. XI (12) 34-39 (Mars 2003). Accessible sur [http://www.lessig.org/content/archives/march2003cookrep.pdf->http://www.lessig.org/content/archives/march2003cookrep.pdf (2006).
[12 S. Milgram, « The Small-World Problem », Psychology Today 1(1), 60-67 (1967)
[13 R. Stallman, Free Software, Free Society, éd. Joshua Gay, Mass. USA, 2002
[14 J.Walker, The Digital Imprimatur : How Big Brother and Big Media Can Put the Internet Genie back in the Bottle. (Révision 4) Accessible sur :
[http://www. fourmilab.ch/documents/digital-imprimatur/->http://www.fourmilab.ch/documents/digital-imprimatur/ (2006)
[15 D. Watts, S. Strogatz, « Collective Dynamics of » Networks, Nature 393, 440-442 (1998)

.

Gkouskou-Giannakou Pergia

Enseignante-chercheuse à l'Université de Technologie de Compiègne et journaliste (radio Deutsche Welle). Elle a notamment publié avec Franck Ghitalla, Dominique Boullier, Laurence Le Douarin et Aurélie Neau : L'Outre Lecture, manipuler, (s')approprier, interpréter le Web (Éditions BPI, 2004). Elle travaille sur l'émergence des nouvelles conventions sémiotiques sur le Web.