Majeure 21. Subjectivation du Net : postmédia, réseaux, mise en commun

Les « autres » applications des technologies Peer-to-Peer

Partagez —> /

Dans le flot des informations concernant le Peer-to-Peer, il est difficile d’échapper au sujet, semble-t-il inépuisable, des échanges de fichiers musicaux (illégaux ou non). Cet article propose de se détourner de la cible favorite des projecteurs des médias pour s’intéresser à la grande diversité des usages possibles de ces technologies. Tout en passant en revue quelques exemples, il dénonce également le regrettable amalgame qui est aujourd’hui fait entre une technologie, prometteuse de nouveauté(s), et les usages qui peuvent en être faits.

In the flow of information concerning Peer-to-Peer, it is difficult to get away from the apparently inexhaustible topic of (legal or illegal) music file sharing. This article invites us to refocus our attention towards the vast diversity of possible uses of the P2P technologies. After a survey of a few examples, the article denounces the ongoing confusion between an innovative and promising technology and the uses to which it can be subjected.
En janvier 2005 le Journal du Net publiait en ligne un article intitulé « La répression ne fait pas reculer le peer-to-peer » [1. Ce titre illustre à lui seul la forte propension actuelle à confondre peer-to-peer et piratage, c’est-à-dire confondre une technologie (neutre par définition) avec l’usage qui peut en être fait. À la lumière de cette remarque, on peut se rendre compte de la disproportion des moyens mis en œuvre pour combattre le piratage de musique en s’attaquant directement au peer-to-peer (P2P). Erreur politique et culturelle, disproportion des moyens répressifs et manque de culture technique, le P2P est contraint dans son développement par de nombreuses pressions, exercées en premier lieu par les grandes maisons de disques. Si le P2P tient toutes ses promesses il est à craindre que nous assistions là à l’assimilation d’une pratique culturelle innovante à des actes de « délinquance ». Depuis les fabricants de diligences qui souhaitaient interdire le chemin de fer, l’histoire s’est répétée plusieurs fois, et il se pourrait que nous assistions à une nième répétition.
Je souhaite justement dans cet article revenir sur l’existence d’un nombre grandissant d’applications du P2P, sous-représentées, occultées par le tapage médiatique et les procès qu’engendrent les échanges illégaux de fichiers musicaux. L’utilisation des réseaux P2P ne se limite pas, comme souhaiteraient le faire croire les majors, à l’échange de fichiers musicaux. À travers les attaques subies par les technologies P2P, c’est non seulement toute une technologie que l’on cherche à museler, mais ce sont aussi des dizaines de solutions innovantes offertes par le P2P que l’on menace, alors que ces dernières pourraient bien constituer une des plus grandes mutations à venir de l’Internet et de son usage.

Essor et évolution du P2P

Depuis la fin des années 90, les technologies P2P ont été amenées à évoluer très vite. Leur succès spectaculaire a bien sûr incité les créateurs à perfectionner leurs outils en termes d’efficacité, mais les évolutions ont aussi (et surtout) été conditionnées par les contraintes qu’imposent les menaces de procès, brandies par les grandes maisons de disques([[Dont a justement été victime la première génération de P2P et le fameux Napster.). Des solutions de plus en plus décentralisées qui ont été mises au point, pour éviter tout risque d’action en justice. Trois générations technologiques, se sont ainsi succédées et se côtoient aujourd’hui, avec des succès différents selon les pays [2.
La première génération (système centralisé) de P2P (Napster) utilise une structure de réseau serveur-client. Cette solution de mise en relation, dite one-to-many, permet un support unique de diffusion et de partage des fichiers avec plusieurs nœuds. Le serveur central supervise et contrôle le trafic. Il maintient les dossiers de fichiers partagés dans chaque nœud. À chaque fois qu’un client se connecte ou se déconnecte du réseau, les dossiers sont mis à jour. Ce type de structure procure les meilleures performances en termes de localisation de fichiers. Chaque individu dans le réseau doit se signaler, assurant que toutes les recherches sont compréhensibles et sont exécutées rapidement et efficacement.
Dans la seconde génération (système décentralisé), le système de mise en relation dit many-to-many, utilisé par les clients du protocole Gnutella comme BearShare, permet un partage hautement automatisé des ressources à travers des nœuds multiples. Une structure décentralisée se passe de l’existence d’un serveur central et se montre finalement aussi, sinon plus, robuste qu’un système centralisé. La troisième génération (système hybride), par exemple FastTrack, KaZaA, Grokster, Groove, et actuels clients de Gnutella, utilise une hybridation des deux précédentes.
Les systèmes les plus récents, tels BitTorrent, rendent plus aisée la diffusion de fichiers de grandes tailles à un nombre élevé de clients. Le téléchargement des fichiers en question ne se fait plus nécessairement à partir d’une source unique, mais de façon distribuée, à partir de multiples sources du même fichier([[Cette solution a en plus l’avantage de limiter la consommation de la bande passante montante des utilisateurs.). Grâce en partie à ces progrès, et comme l’indique justement le titre de l’article de N. Rauline, l’utilisation des réseaux P2P ne régresse pas mais continue au contraire sa progression mondiale.
Le dernier rapport de l’OCDE [3 sur le sujet indique, en effet, que le nombre d’utilisateurs continue de croître. L’indicateur choisi, celui du nombre d’utilisateurs simultanés (i.e. connectés ensembles à un moment donné sur l’ensemble des réseaux supervisés) a doublé entre avril 2002 et avril 2004, passant d’environ 5 à 10 millions. Il faut toutefois nuancer l’augmentation générale par le fait que la progression est inégalement répartie[[L’augmentation est plus forte en Europe qu’aux États-unis où le taux d’utilisation est déjà très élevé.. Si les retentissants procès, concernant aujourd’hui plus directement des utilisateurs que les créateurs de logiciels([[C’était déjà le cas aux États-unis, ça l’est désormais en France [4.), mettent sur le devant de la scène l’utilisation des réseaux P2P pour la copie illégale de fichiers musicaux, il faut prendre conscience que de nombreuses autres possibilités, souvent innovantes, d’appliquer la technologie P2P existent et que l’évolution du P2P se fait aussi par sa diversification.

Utilisations concrètes dans des domaines variés

Historiquement une des premières applications des technologies de P2P, le calcul massif distribué, reste une force majeure. En marge des exemples emblématiques tels Seti@home ([[Dédié au projet SETI, cette application, avec 3311948 participants de 226 pays (en 2001), a pu atteindre des puissances de calcul phénoménales. ) en astrophysique ou, plus récemment, le projet Decryptron([[A permis de mobiliser 75.000 internautes pour comparer 500.000 protéines du monde vivant dans le cadre des recherches en thérapigénie. ) en génétique, le calcul distribué se développe notamment sous la forme du Grid-computing. Ce dernier propose d’appliquer le même principe à d’autres échelles, comme celle d’une entreprise, demandeuse de gros calculs, souhaitant optimiser l’exploitation de son parc informatique, en distribuant des calculs sur l’ensemble des machines (en profitant des ressources non exploitées de chaque machine). Ce même principe peut être utilisé également dans le cadre du stockage massif de données ou encore dans le cadre du partage de temps processeur (chez IBM ou HP par exemple) [6.
D’autres applications telles que la messagerie instantanée (ICQ, AIM) ou encore le Netmeeting (visioconférence), proposé par Microsoft, profitent des avantages techniques du P2P. Cette application pourrait s’étendre aux logiciels de courrier électronique. La transmission des messages ne nécessitant plus le passage par un serveur, elle s’épargnerait des problèmes de stockage, de délais, et diverses défaillances techniques. Cette solution permet en outre de contrer plus aisément propagation de virus et autres spams [5. Enfin je voudrais citer une application connaissant, depuis peu, un essor prometteur : la voix sur IP. En effet, certaines sociétés de télécommunications commencent à s’intéresser au P2P pour désengorger leurs serveurs téléphoniques [5, et l’adoption d’une technologie P2P par Skype, un service de voix sur IP (VoiP), qui s’est rapidement diffusé([[Voir sur le site de la Fing, http://www.fing.org/index.php?num=4107,3,1074,4), marque peut-être le début d’une importante évolution du marché traditionnel de la téléphonie [7.
Au vu des exemples « classiques » que je viens de mentionner, on pourrait se figurer que les applications « légales » du P2P demeurent l’apanage des seuls chercheurs en informatique. Il n’en est rien. Des applications destinées au plus grand nombre se tournent aujourd’hui vers le P2P et ses solutions. L’une des plus aptes à se répandre est sans doute celle des jeux en ligne, et particulièrement les jeux massivement multi-joueurs([[Voir sur le site de la Fing http://www.fing.org/index.php?num=3297,2 ). Une autre application, finalement techniquement assez proche, est celle de la diffusion de flux continus.
Il peut s’agir par exemple du logiciel PeerCast, lancé en avril 2002, qui permet la diffusion de WebRadio. À ce jour, le logiciel permet à tout utilisateur d’écouter en flux continu de la musique, des émissions ou sa propre radio. Cet outil permet également aux internautes, même sur bas débit, d’écouter en streaming ces contenus. Ce type de solution technologique n’intéresse pas seulement les amateurs, mais également le secteur professionnel. En effet, des groupes comme Contiki (société de service) ou Akamai (fournisseur d’infrastructure de e-business) utilisent la technologie P2P pour aider les entreprises à diffuser leurs contenus multimédias et leurs présentations de ventes.
Bien connus pour d’autres raisons, le transfert et le partage de fichiers en P2P ont été mis en œuvre par divers acteurs. Certaines banques, par exemple, utilisent déjà des technologies de partage de fichiers en P2P pour le transfert de données avec leurs succursales. À terme, des plateformes dédiées au partage et à la distribution d’informations propriétaires verront le jour dans les banques et les sociétés d’assurance. Autres cas, moins surprenant, Lindows (de Linux), poursuit une expérimentation consistant à offrir son logiciel via des réseaux P2P, à un tarif réduit de moitié par rapport au prix annoncé sur leur site Web ; l’idée étant de bénéficier de la réduction des coûts du travail en ligne, ainsi que de la capacité de cette technologie à permettre un nombre élevé des téléchargements simultanés [8.
Le partage de fichier est également un élément important pour des institutions telles que les gouvernements ou les universités. Penn State et le MIT aux États-unis, ainsi que la British Columbia’s Fraser University au Canada ont commencé à développer des réseaux P2P afin d’assurer un partage de données, plus rapide et plus pratique. Le gouvernement des États-unis utilise également un système décentralisé d’échange de données, et les agences fédérales américaines ont mentionné avoir commencé à utiliser une technologie P2P pour obtenir des statistiques et des informations en provenance de machines appartenant à plus d’une centaine d’agences gouvernementales différentes [9.
Les exemples précédents sont intéressants en eux-mêmes, et démontrent la diversité des applications du P2P. Je voudrais cependant aller un peu plus loin, et évoquer un aspect des applications du P2P qui me semble plus intéressant encore, car lié à une évolution de fond des usages de l’Internet. Je veux bien sûr parler ici de tout ce qui a trait aujourd’hui à « l’intelligence collective » et à son support par des solutions logicielles.

P2P et intelligence collective. L’exemple de Human-Links

Le partage des savoirs, le travail collaboratif ou coopératif, la capitalisation et la mutualisation des connaissances, le knowledge management, la formation à distance (etc.) sont aujourd’hui autant de termes « en vogue ». Ces problématiques, dans leur majorité, ne sont pas nouvelles mais se trouvent renouvelées par leur transposition dans le domaine des systèmes de travail informatiquement médiés([[Certaines d’entre elles ont même fait leur apparition, comme l’apprentissage à distance, ou « e-learning ».). Or, il semble que la technologie P2P corresponde plutôt bien aux besoins exprimés par les problématiques gravitant autour de ce que l’on pourrait appeler une « intelligence collective » assistée par ordinateur. Pour concrétiser un peu ma réflexion, je voudrais prendre l’exemple de la « veille stratégique », élément délicat de l’activité d’une entreprise ou d’une institution, qui nécessite de l’efficacité, de la confidentialité et une coopération avancée lorsqu’elle implique plus d’un acteur. En quoi le P2P constitue-t-il une avancée pour des activités telles que la veille stratégique ? Tout simplement parce que cette activité repose sur l’échange et le partage de ressources documentaires : partage de documents, de textes([[Des brevets aux communiqués de presse, en passant par les notes de service…), de bases de données….
Au partage proprement dit s’ajoute une problématique de coopération et de coordination du travail (complémentarité des recherches effectuées, gestion des versions, etc.). On a déjà dit que le P2P a prouvé son intérêt dans l’échange et le partage de fichiers, mais dans ce cas particulier, le P2P apporte aussi des éléments nouveaux, telles des solutions efficaces d’indexation, et surtout de recherche distribuée.
Ces différentes fonctionnalités peuvent se trouver plus ou moins regroupées dans des outils complets et innovants, dont un bon exemple est le logiciel Human-Links (HL). Il s’agit d’un logiciel de cartographie dynamique d’information, permettant la gestion d’espaces documentaires textuels (appelés « bases de connaissances »), adapté à la veille sur le Web. La carte « thématique » de son interface permet de visualiser et de manipuler un ensemble de documents appartenant à des catégories thématiques dans un espace où l’écartement entre les items correspond à une distance sémantique calculée([[Évolution de la méthode Term Frequency, Inverse Document Frequency (tf-idf).).
Au-delà de la visualisation d’information, le logiciel dispose de plusieurs fonctionnalités spécifiquement dédiées à la veille (alerte de changement sur des pages Web par exemple), mais je voudrais m’intéresser plus spécialement aux fonctionnalités liées, directement ou indirectement, à la structure P2P qui sous-tend le fonctionnement de HL. En l’occurrence, chaque utilisateur de HL représente, à travers un réseau P2P, un « contact » potentiel pour les autres. Côté recherche d’information, HL dispose d’un méta-moteur de recherche classique, mais il dispose de plus d’une fonctionnalité de recherche distribuée : une requête est lancée sur les bases de connaissances des contacts de l’utilisateur. Si l’avantage de ce genre de technologie n’est pas la masse des résultats, il est leur qualité. En effet, si le document a été retenu par un utilisateur pour figurer dans sa base de connaissance, il y a de fortes chances que celui-ci soit un minimum pertinent.
Côté collaboration cette fois, le logiciel dispose, entre autres, d’une fonctionnalité de chat qui permet à différents utilisateurs, connectés en même temps, de discuter de façon synchrone. Ce qui est plus intéressant encore, c’est le système d’échange et de partage des documents présents dans les bases de connaissance de chacun. Chaque contact peut atteindre les bases de connaissances des autres, à condition que ceux-ci en autorisent l’accès, et importer des documents, voire des catégories entières. Inversement un utilisateur peut envoyer à ses contacts des documents, dont des informations trouvées sur le Web ou encore dans des bases de données (que HL permet d’interroger), mais aussi des rapports de synthèse, au format Html dont la rédaction est fortement assistée par le logiciel.
HL a été créé et diffusé par la société Amoweba en 2000. Il l’est aujourd’hui par la société Social-computing après la disparition, l’été dernier, du groupe Amoweba. Plus qu’un signe de difficultés particulières liées au développement d’application P2P, cette disparition est un symptôme caractéristique de la difficulté grandissante et générale de porter en France des projets innovants. Il ne s’agit pas ici de crier à la suprématie du P2P par rapport à des systèmes d’information « classiques ». Je note cependant que nombre de ces derniers ont été beaucoup plus coûteux qu’efficaces et que l’alternative proposée par les technologies P2P devrait pouvoir être développée plus avant. Cette remarque, valable pour la veille stratégique, peut également s’appliquer à d’autres domaines, comme l’enseignement (mutualisation des contenus éducatifs et pédagogiques) [5, ou encore la gestion de la recherche [10.

Vers un déploiement d’usages plus larges du Peer-to-Peer ?

De nombreux aspects restent aujourd’hui à approfondir, notamment autour de la question, volontairement éludée ici, de l’échange de fichiers musicaux. Quoi qu’en disent les majors, le P2P n’est pas la cause de leurs échecs commerciaux. Il suffit pour s’en convaincre de se pencher réellement sur les chiffres et d’analyser l’évolution des modes de consommation des internautes pour s’en rendre compte. D’autres articles se chargent de mettre en perspective les jérémiades de ces dernières et exposent clairement leurs exagérations. Pour n’en citer qu’un exemple : les majors considèrent qu’un téléchargement équivaut à un achat manqué. Une étude menée par Oberholzer et Strumf aboutit à un ratio d’un achat manqué pour 5000 téléchargements [11. D’autres travaux montrent encore que les plus gros « téléchargeurs » sont aussi les plus gros acheteurs de musique. De plus, on se rend compte que la plus grosse baisse de vente est celle des singles, loin devant celle des albums [11. Cette chute a débutée au États-unis deux ans avant l’arrivée du P2P avec Napster, et ne lui est donc pas attribuable entièrement (contrairement à ce que prétendent les majors bien sûr).
Au-delà de ces considérations, il existe, comme j’ai essayé de le montrer, une multitude d’applications au P2P, qui restent dans l’ombre. Au-delà de leur diversité, il faut souligner que certaines applications sont le fruit d’un travail approfondi pour répondre à des besoins engendrés par de nouvelles problématiques. Leur succès ne doit rien au hasard, ni à la mauvaise image dont bénéficie le P2P en général. La technologie P2P est tout simplement apte à accompagner l’évolution des pratiques qui convergent vers une « intelligence collective », quelle que soit sa forme ou son domaine d’application.
Pour finir je voudrais prendre encore un peu de recul et tenter d’envisager le futur de ces technologies. Rien ne plaide aujourd’hui en faveur d’un ralentissement du développement du P2P. L’utilisation d’Internet semble de plus en plus se tourner vers l’accomplissement de son principe fondateur, auquel correspond le P2P : « un échange direct entre les utilisateurs, sans serveur ou autorité centrale, ni intermédiaire obligé » [5. Mettre en relation directe des personnes et des contenus, voilà bien une tendance marquée dont une illustration est l’apparition de termes tels « social networking » ou encore « social computing », matérialisée par le phénomène que sont aujourd’hui devenus les Blogs. Les Blogs constituent une nette avancée dans l’utilisation d’Internet, dont on ne mesure pas encore toute l’ampleur, induisent des questionnements sur les pratiques et impactent directement les modèles actuels de l’Internet (y compris économiques) – en particulier les notions de popularité, d’audimat et de trafic, en nécessitant la création de nouveaux indicateurs et outils de mesure [12.
Le P2P ne recule pas, et tout porte à croire au contraire qu’il va se développer encore largement. Il reste évidemment beaucoup de chemin à parcourir avant d’arriver à une mise en relation « totale » des contenus et des personnes sur Internet. Sans tomber dans la science fiction, les éléments semblent se mettrent en place. Prenons l’exemple des contenus des machines de beaucoup d’internautes : combien sont aujourd’hui équipées de systèmes d’indexations tels que Google Desktop Search, Copernick Desktop Search ou équivalents? Ces outils, extrêmement efficaces, faciles à utiliser, ont déjà commencé l’indexation de milliards de données sur des millions de PC et pourraient constituer un premier pas fondamental vers une nouvelle génération de système P2P de grande ampleur, et peut-être même, une nouvelle évolution de l’Internet en lui-même.

Références

[1 N. Rauline, « La répression ne fait pas reculer le peer-to-peer », Le Journal Du Net, 11/01/05.
[http://www.journaldunet.com/0501/050111ocde-p2p.shtml->http://www.journaldunet.com/0501/050111ocde-p2p.shtml
[2 Sandvine, « Regional characteristics of P2P – File sharing as a multi-application, multi-national phenomenon », An Industry White Paper, Octobre 2003, [http://www.sandvine.com/->http://www.sandvine.com/
[3 OCDE, Chapter 5 of OECD Information Technology Outlook 2004, Section on Peer-to-Peer Networks, 2004. [http://www.oecd.org/dataoecd/55/57/32927686.pdf->http://www.oecd.org/dataoecd/55/57/32927686.pdf

[4 John Borland, « Peer-to-peer: la RIAA dépose 750 nouvelles plaintes », CNET News.com, 29/10/2004. [http://www.zdnet.fr/actualites/internet/0,39020774,39180452,00.htm->http://www.zdnet.fr/actualites/internet/0,39020774,39180452,00.htm

[5 Forum des droits sur l’Internet, 20/06/03. [http://www.foruminternet.org/texte/publications/lire.phtml?id=581->http://www.foruminternet.org/texte/publications/lire.phtml?id=581
[6 N.Six, « JDNet, Grid computing : l’union fait la force », 11/12/02. [http://solutions.journaldunet.com/0212/021211_grid.shtml->http://solutions.journaldunet.com/0212/021211_grid.shtml

[7 Janus Friis, cofondateur de KaZaA: « Nous adaptons le peer-to-peer au téléphone pour secouer l’ordre établi », CENT News.com, édition française, 18/09/2003.
[8 « Lindows routes OS over file-sharing networks », CNET News.com, 4 March 2004.
[http://news.com.com/2100-7344-5169894.html->http://news.com.com/2100-7344-5169894.html
[9 « US govt to isolate itself from P2P risks », CNET News.com, 10 September 2003.
[http://asia.cnet.com/news/security/0,39037064,39154144,00.htm->http://asia.cnet.com/news/security/0,39037064,39154144,00.htm
[10 NTIDE, « les réseaux humains, le peer-to-peer », 2003.
[http://ms161u22.u-3mrs.fr/ntide/tc/03_04/contenu.php?idgroupe=2&idtitre=1->http://ms161u22.u-3mrs.fr/ntide/tc/03_04/contenu.php?idgroupe=2&idtitre=1
[11 Marc Bourreau, Benjamin Labarthe-Piol, « le peer to peer et la crise de l’industrie du disque : une perspective historique », article sur Biblio du libre, mis en ligne le 3/01/05
[http://www.freescape.eu.org/biblio/article.php3?id_article=211->http://www.freescape.eu.org/biblio/article.php3?id_article=211
[12 [Cyril Fiévet->http://www.amazon.fr/exec/obidos/search-handle-url/index=books-fr&field-author=Fi%E9vet%2C Cyril/171-0115827-1183436, [Emily Turrettini->http://www.amazon.fr/exec/obidos/search-handle-url/index=books-fr&field-author=Turrettini%2C Emily/171-0115827-1183436, « Blogstory », Eyrolles, 2004.