Désintermédiation et démocratie

Quelques questions dans le domaine culturelL’hypothèse dite « californienne » ne s’est pas vérifiée : les intermédiaires n’ont pas disparu avec l’arrivée d’Internet. Qu’il s’agisse des publications scientifiques, de l’industrie du disque (labels, DJs, critiques) ou de l’édition imprimée, les intermédiaires ont été contraints de se transformer, découvrant parfois des modalités de fonctionnement plus souples et plus ouvertes sur l’extérieur.

Il est de bon ton sur Internet de promettre la fin des intermédiaires, le bousculement des institutions, le délitement des frontières, la reprise du pouvoir par les « communautés ». On a souvent donné le nom d’« idéologie californienne » à ce discours. Global et sans nuances, il est évidemment incapable de nous aider à définir des chemins pour construire un monde plus juste. Il fait bon dire que tout va changer demain et que les producteurs (de culture, d’information, de connaissances… comme hier de « plus-value ») vont enfin prendre les rênes d’un système accaparé par des industries « moralement répugnantes » comme le dit Eben Möglen([[(Eben Moglen, « Pay Artists, Not Owners », The Nation, 27 octobre 2003, http://www.thenation.com/doc.mhtml?i=20031027&s=moglen ). On doit cependant se demander si l’analyse du bousculement des rapports de production qui s’opère sous nos yeux n’est pas erronée. Certes, les arguments des tenants de l’ancien système, les détenteurs de « portefeuilles de droits », les monopolistes de la connaissance et de la culture, les majors qui cherchent leur tambour…, de par leur indigence, pourraient nous inciter à un radicalisme de façade.
Les quelques indices qui vont suivre cherchent au contraire à montrer que l’Internet bouscule les situations, notamment en introduisant sur la scène les multitudes (des acteurs dispersés, organisés dans des réseaux souples et informels, créant du possible en agissant de concert à partir de préoccupations différentes). Il est urgent de saisir cette opportunité, créée par la remise en cause des modes de production que l’on appelle du terme générique, qui resterait à définir et critiquer, la « société de l’information ». En particulier parce que les forces dominantes cherchent à utiliser ce basculement pour revenir sur des acquis démocratiques et réorganiser les pouvoirs pour limiter plus encore les marges de liberté des créateurs sur la diffusion de l’information, de la culture et de la connaissance. Les questions de la copie privée, du brevetage des logiciels, l’extension de la propriété intellectuelle définissent ainsi des zones de front dans le nouveau cadre de la société de l’information.
Nous ne traiterons ici que des « intermédiaires » dans le cadre de la création-diffusion de culture et de connaissance, mais la démarche pourrait largement s’étendre à une critique positive de toutes les analyses sur la « désintermédiation » : ce sont les « intermédiaires » qui fondent les sociétés. En leur absence, le « marché » (fût-il celui des idées) s’impose toujours comme référent. La question qui mérite d’être posée est celle de la subversion-transformation des intermédiaires pour rétablir l’équilibre entre les créateurs et la société (les lecteurs pris individuellement, mais aussi les acteurs de la lecture sociale : bibliothèques, écoles…). Une question démocratique essentielle, pour laquelle l’Internet et le basculement vers les documents numériques offrent une opportunité radicale.

Les publications scientifiques

Le débat sur le rôle des intermédiaires dans l’organisation des publications scientifiques a été lancé très tôt dans la courte histoire de l’Internet. Le réseau était encore débutant, quand en 1994 Stevan Harnad publie sa « proposition subversive »([[« Scholarly Journals at the Crossroads. A Subversive Proposal for Electronic Publishing » http://www.arl.org/scomm/subversive/toc.html ).
) qui vise rien de moins qu’à enlever la science au monopole des « éditeurs scientifiques » et redonner aux producteurs le contrôle sur la diffusion, la lecture, la citation, la ré-exploitation dans des bases de données, ou par extraction de connaissances et de métadonnées.
Il n’est de science que « publiée ». Les « savants fous » qui fabriquent des avions renifleurs sans partager leurs travaux appartiennent à la mythologie de bande dessinée. Mais la publication d’une recherche, notamment dans les sciences « dures », est un travail très codifié. Pas d’innovation linguistique ou de présentation : un cadre de rédaction fixé, une place centrale des données expérimentales, un respect des recherches antérieures (marqué par les citations). Un mode d’écriture qui devrait nous interroger quand on cherche à lui appliquer des règles de propriété littéraire (attribuée au contraire pour la « forme » donnée aux idées).
Un article écrit dans un laboratoire (en général financé par une université, la recherche « privée » publiant rarement des résultats) est soumis à une « revue ». Le « rang » de la revue est calculé suivant un algorithme qui tient compte des « citations » obtenues par les articles publiés dans ladite revue. Il permet de distinguer les « revues-cœur » d’une discipline (que toute bonne bibliothèque spécialisée doit posséder), des revues périphériques. Cette « hiérarchisation » des revues est une des missions du système de publication de la recherche : aucun chercheur ne peut se permettre de lire tout ce qui est publié dans son secteur. Le « rang » des revues joue donc comme un système de prescription.
Le chercheur (ou plutôt son laboratoire) envoie la publication à la revue la plus susceptible de publier (auto-placement dans la hiérarchie, mais aussi réseau d’influence, capital social, notoriété acquise antérieurement, et même avantages linguistiques dans un monde écrit principalement en « anglais international »). Un comité de lecteurs spécialisés (les « pairs » / peer reviewers) va évaluer l’article, le rejeter ou proposer des modifications. Ce n’est qu’après deux ou trois allers-retours de ce type que l’article sera définitivement publié. Il aura alors « date certaine », reconnaissance (en fonction du rang de la revue) et pourra jouer son rôle essentiel : gérer la carrière du chercheur et permettre le renouvellement des crédits du laboratoire.
On voit donc le rôle central de l’édition scientifique dans le fonctionnement global de la science. Or les éditeurs scientifiques sont une catégorie économique très particulière : il connaissent parfaitement leur marché (des abonnés, en général des institutions plus ou moins obligées pour elles aussi « tenir leur rang » et attirer les « meilleurs » chercheurs). Ce marché est globalement inélastique (on ne peut remplacer un article « trop cher » par un autre), et avec l’Internet il est même susceptible de connaître un « second marché » de la revente des versions électroniques ou des droits à photocopier, qui peut être aussi rémunérateur que le marché primaire d’abonnement aux revues.
Merci pour les principaux acteurs de ce système captif : Elsevier, première transnationale admet un bénéfice sur chiffre d’affaire avoisinant 40%([[Le Monde, 22 janvier 1999) ; le coût des revues (même rapporté à la page imprimée) est largement supérieur à l’inflation depuis une quinzaine d’années ; la concentration du secteur reste rapide et inquiétante.
Dans ce cadre rigide, l’Internet vient jouer son rôle perturbateur. La subversion proposée par Stevan Harnad et reprise dans l’Appel de Budapest pour le libre accès à la science consiste à permettre aux chercheurs d’augmenter le domaine public de la connaissance en versant leur article (ou une des versions de prépublication) dans des « archives ouvertes » : serveurs installés à peu de frais (logiciels libres) dans les universités qui facilitent le dépôt d’articles, l’élaboration des métadonnées documentaires, et ouverture à des « robots de moissonnage » qui vont créer des systèmes documentaires par spécialités en indexant les publications de plusieurs serveurs d’archives ouvertes.[[Pour une courte histoire de ce mouvement : « Ten Years After », Richard Poynder (Information Today, 14 octobre 2004) ; http://www.infotoday.com/it/oct04/poynder.shtml).
Nous somme pleinement dans la nouvelle forme d’opposition de la société civile mondiale : un mouvement évacuant la question de l’affrontement, et construisant les alternatives en « parasites » du système marchand, avec une forte volonté de briser les barrières qui empêchent les accès égalitaires aux connaissances et à la culture. La démarche est très proche de celle du mouvement des logiciels libres.
Cette action déterminée de chercheurs, son succès (d’image autant que de réalisations concrètes, phase actuelle du mouvement) obligent les intermédiaires à se repositionner – par exemple les principaux éditeurs acceptent maintenant que les chercheurs déposent les articles publiés dans leurs revues dans des serveurs institutionnels… Ce dépôt des articles par les scientifiques a incité certains à bousculer un autre type d’intermédiaire : le comité de lecture scientifique([[Caroline White, « Little Evidence for Effectiveness of Scientific Peer Review », British Medical Journal 1er février 2003; http://bmj.com/cgi/content/full/326/7383/241/a ). )
Pourquoi ne pas laisser faire le jeu des autres chercheurs, qui par la quantité de leurs citations vont valoriser certains articles ? D’abord parce que la connaissance mérite plus qu’un jugement basé sur les capacités de séduction, la qualité argumentative ou d’influence. Le comité de lecture possède une grille, qui ne dit pas la véracité d’une découverte, mais analyse la crédibilité d’une recherche. Il s’agit de demander aux personnes les plus aptes à manier les symboles d’une discipline (ou plutôt d’une sous-discipline souvent très restreinte) de « faire école » et d’élaborer dans le cadre même de leur activité de peer-reviewing le paradigme de cette discipline. Libre aux auteurs insatisfaits de créer une autre école, de proposer leur article ailleurs pour tisser des réseaux sociaux différents. Le comité de lecture, les personnes qui le composent comme la qualité d’aide à la rédaction proposée lors des allers-retours avec le chercheur, permet d’apposer une « marque de fiabilité », un « gage de crédibilité »… On retrouvera souvent ce phénomène : pour qu’une connaissance, ou une création, passe au-delà des lecteurs de la communauté restreinte, il faut apposer une marque extérieure, qui elle-même acquiert son prestige par la qualité des travaux proposés sous cette marque (ici le titre d’une revue, ailleurs la collection, le producteur musical…). Dès lors, la transparence du système, son contrôle démocratique deviennent des questions essentielles. Si le modèle de contrôle subsiste, il devra être profondément remanié.
On voit donc se développer trois tendances simultanées : 1. Les articles sont rapidement placés sur des serveurs, circulent dans des groupes de débat, acquérant ainsi des remarques de lecteurs. La connaissance devient « libre ». Les mêmes articles poursuivent leur chemin traditionnel pour acquérir la marque de fiabilité donnée par l’intermédiaire (le comité de lecture et le « rang » de la revue). C’est ce chemin traditionnel qui fournit encore les critères de financement de la recherche et de carrière pour les chercheurs. 3. Parce qu’ils refusent que, une fois marquées, leurs recherches voient leur circulation limitée (par le péage, souvent fort élevé, apposé par le prix des revues), des chercheurs créent des revues « en libre accès ».
Il me semble que l’on devrait regarder de plus près ce modèle tripode, car il ressemble à de nombreuses forme actuelles de l’opposition mondiale dans le cadre de la « société de l’information ». Mais on voit aussi que les missions permettant de changer le statut de la connaissance (passer de la prépublication à l’article, donc à la possibilité de citation) gardent toute leur acuité : les nouvelles revues en libre accès conservent le système de contrôle par les pairs pour garantir leur crédibilité. Loin de disparaître, les « intermédiaires » se renouvellent.
De « nouveaux entrepreneurs » viennent se placer sur ce créneau, faisant de l’accès libre un critère distinctif dans le cadre d’un renouvellement de la concurrence interne au secteur de l’édition scientifique… et cherchant des modes de financement adaptés à ce repositionnement. Le modèle économique qui tient aujourd’hui la corde est celui du « financement à la source » : le laboratoire du chercheur paie un forfait pour la publication… qui permet la distribution libre et gratuite. C’est une hypothèse qui mérite d’être étudiée et peaufinée, car elle n’est pas exempte de problèmes, notamment pour les universités du Sud. Mais ce qui est important, c’est de repérer la capacité de mutation interne de secteurs industriels. On peut aussi ajouter d’autres types d’interventions comme celle de la puissance publique (exemple du NIH, National Institute of Health aux États-Unis), des universités (au travers des presses d’université et des serveurs institutionnels d’archivage) ou des associations scientifiques.
Effrayés par l’irruption d’une contre-expertise citoyenne dans tous les domaines de la techno-science (à commencer par les groupes de malades, notamment sur la question du SIDA), les tenants de l’autonomie de ce secteur cherchent à revaloriser le rôle du « contrôle par les pairs » afin non plus de lui faire jouer un rôle interne aux communautés scientifiques, mais de lui donner le pouvoir de dire ce qui est science et ce qui serait affabulations et peurs populaires. Un récent rapport britannique allant dans ce sens est résumé dans le journal The Scientist([[Tracey Brown , « Stop Whispering About Peer Review », (The Scientist, Volume 18 | Issue 17 | 8 | Sep. 13, 2004) http://www.the-scientist.com/yr2004/sep/opinion_040913.html. ).). L’institution intermédiaire du comité scientifique, un temps bousculée, pourrait revenir en force pour étendre ses prérogatives : ce qui aura été validé en petit comité (par les « pairs », qui par définition partagent au moins les buts communs avec les auteurs) deviendra parole « scientifique », et ne devrait plus être remis en cause par les citoyens (ou par les comités scientifiques d’autres disciplines). Nous touchons ici à l’idéologie même de l’Église scientiste.
Dans le domaine des publications scientifiques, la remise en question des intermédiaires porte donc en germe une nouvelle conception d’un bien commun de la connaissance, de l’extension d’un domaine public concédé. La prise en main de la diffusion de la science par les chercheurs eux-mêmes a bousculé un secteur établi, à la fois dans ses fondements économiques et fonctionnels. Dès lors, la redéfinition des acteurs est en cours. La concurrence interne permet de soulever, sous un angle nouveau, les deux questions centrales : celle du modèle économique dans un marché non-élastique, de surcroît à forte dominante publique (recherche et bibliothèques) ; celle de l’instance de validation et de ses modes de fonctionnement. Retrouvons nous cette démarche dans d’autres secteurs ?

L’industrie musicale engluée dans le mp3

Les évolutions récentes des techniques de diffusion de la musique viennent percuter de plein fouet une industrie dominante qui joue l’autruche depuis une dizaine d’années. Dans ce maelström, nombreuses sont les voix qui veulent emporter le music-business et faire émerger des « réseaux de créateurs » autonomes, indépendants, libres… et dirigés par les créateurs eux-mêmes. Et il semble bien que dans le domaine de la musique ce discours connaisse un réel succès… chez les utilisateurs de musique bien plus que chez les musiciens. On est encore loin de l’adhésion massive à la diffusion libre de la part des auteurs, comme c’est le cas dans l’exemple des publications scientifiques.
Pour autant, l’industrie de la musique est en train de connaître un véritable collapsus. D’industrie dominante, capable de servir un empire économique et idéologique, l’industrie est en train de connaître un mouvement de rejet très profond. Le modèle de gestion-valorisation permanente d’un portefeuille d’œuvres qui a fait le succès des rééditions, reformatages, changements de support… connaît un véritable hoquet avec le mp3 et la numérisation. Les rééditions vendues au même prix que les créations, les politiques anti-copie, l’apparition de nouveaux supports (notamment le DVD musical) ont emporté au loin l’adhésion des auditeurs aux stratégies des majors. Or c’est cette adhésion même qui a été la source de l’explosion de cette industrie dans les années 60-70. Le nouveau format mp3, maniable, fluide, a servi de détonateur car il permet des copies à coût marginal nul, et s’appuie sur la mise en place de réseaux d’échange privés-publics, dans lesquels les usagers partagent leur discothèques et leurs play-lists. Mais gardons nous de limiter notre analyse à cette « économie de l’abondance » car dans le même mouvement – et la musique ou le cinéma le montrent bien – le coût de réalisation du master, du premier exemplaire devient, lui, de plus en plus élevé, car mobilisant l’ensemble des acteurs d’un secteur industriel.
Dès lors, on conçoit que le secteur qui fait bouger les lignes soit celui qui s’appuie sur la caractéristique d’abondance : les utilisateurs de musique. Ce mouvement est principalement appuyé sur une logique de consommation (ce sont les musiques du top 50 qui sont les plus téléchargées). Or les réseaux musicaux peuvent aussi servir de tremplin pour des créations nouvelles, indépendantes, orientées vers la création de communautés d’échange. Appuyés sur des logiques de licences d’usage libres, ces réseaux alternatifs restent cependant marginaux. Significatifs des nouvelles pratiques d’extension du domaine public concédé, les « musiques libres » restent encore loin de la création de réseaux suffisamment massifs et actifs pour permettre à leurs acteurs de vivre de leur art.
Mais cette marginalité économique n’empêche pas l’explosion d’un discours proclamatoire qui voudrait que la musique n’ait pas besoin de l’industrie, qui annonce sans calculs que les créateurs pourraient vivre en vendant sur Internet des morceaux à circulation libre. Cette utopie n’occulte-t-elle pas d’autres voies démocratiques pour permettre aux artiste de vivre (par exemple les régimes sociaux spécifiques de la création comme l’intermittence, la place des acheteurs publics, comme les salles subventionnées ou les bibliothèques, et d’autres formes à inventer) ? Ne fait-elle pas peu de cas de l’intimité réelle qui existe entre l’industrie musicale et la musique populaire d’aujourd’hui ?
Le mythe du créateur indépendant, repéré par l’industrie qui, par la suite, va s’engraisser sur son dos, ne correspond pas à l’histoire même de la musique populaire. Désolé de briser des mythes, mais il ne me semble pas que ce soit le génie d’Elvis Presley qui ait créé le rock’n’roll, mais plutôt le produit économique des besoins d’une industrie naissante (les radios FM) de musique pour alimenter son développement, et du refus simultané des réseaux AM et de l’industrie des droits d’auteurs (ASCAP) de leur laisser rediffuser le flot musical mainstream. Cette tenaille économique constitue le background de la révolution du rock. Et de l’apparition conjointe de nouveaux prescripteurs : les disc-jockeys. Le support microsillon vinyle maniable, facile à envoyer par le réseau postal, solide, et la lecture sur les transistors ont parachevé cette dissidence. Et fondé le nouvel empire musical que nous connaissons… qui se comporte actuellement de la même façon que l’ancienne industrie au moment de la naissance de ce courant économique et culturel.
La très forte adhésion des consommateurs à l’industrie reste le ressort principal de son succès. Celui-ci a été fortement accentué par l’émergence, à la fin des années 60, des publications musicales. Les critiques prenaient alors un rôle de prescription sans commune mesure avec les autres secteurs culturels. Comme si la musique, l’attitude, la qualité littéraire (Rock’n’Folk des années 70), le mouvement (le groupe de la « contre-culture » emmené par ceux qui sont aujourd’hui à la tête des majors) faisaient corps avec la musique pour constituer l’univers de consommation de cette industrie et emporter l’adhésion populaire.
La fête a duré longtemps. Car toutes les tentatives de réseaux parallèles, d’indépendance, toutes les velléités de produire et diffuser autrement la musique se sont heurtées à deux phénomènes : le besoin d’un véritable infrastructure industrielle pour produire une musique adaptée à l’audience ; l’existence d’une « économie de l’attention » qui gère le partage du temps disponible : très peu d’œuvres sont écoutées par de nombreuses personnes (hit-parade, top 50…). Ce qui fonde le fonds culturel commun, le bruit d’une époque, reste souvent capté par très peu de titres musicaux. En revanche, une grande gamme de productions sont peu écoutées en dehors de leur réseau de fans. Dans le cadre de cette « économie de l’attention », le disc-jockey a été remplacé par le média-planneur, qui décide de passer en boucle ce que vous allez aimer. La prescription n’est plus organisée autour d’attributs externes (la référence à des mouvements par des journalistes écrivains), mais organisée comme une froide stratégie marketing. Tout ceci étant accentué par l’autorisation d’ouverture de la publicité télévisée à la musique.
On comprend mieux les difficultés qui attendent ceux qui souhaitent créer un modèle économique viable (en tout cas du point de vue des créateurs) autour d’une remise en cause du modèle actuel. L’industrie a su trouver des créateurs pour assurer son fonctionnement, car elle promettait à certains (mais tout créateur pense qu’il peut être celui-ci) de passer de la communauté (quelques auditeurs, un groupe de fans, un éventuel disque culte…) à l’audience. Et pour cela d’accompagner le geste créatif grâce à une chaîne de production complète, de la prise de son au paquetage, à la distribution et au marketing. Ce que le réseau informatique sait très bien faire, c’est créer de la communauté, et les communautés de fans de musique existent réellement. Les créateur, même les plus connus, savent utiliser ces réseaux pour envoyer des signaux forts (avant-premières, vidéos d’enregistrements…)([[« Peer-to-Peer Music Tradin: Good Publicity or Bad Precedent ? », http://knowledge.wharton.upenn.edu/articles.cfm?catid=4&articleid=635&homepage=yes
) Mais le passage à l’audience reste fondamentalement étranger à la structure même de l’Internet. Or il reste le rêve des créateurs. Chacun n’est pas forcément prêt à faire les concessions nécessaires à l’industrie, mais depuis les groupes de jeunes prolos britanniques posant l’air arrogant devant les murs de briques de leurs cités dans les années 60, jusqu’aux héros de la culture hip-hop et du rap hardcore, tous rêvent de sortir de la misère par la musique. Ce qui a marché pour quelques uns peut continuer pour eux. Là encore, l’industrie de la musique, parce qu’elle condense et synthétise tout le bruit de fond de l’époque, a toujours su trouver une forte complicité avec les créateurs. Même si les tensions (liées au mode de vie des rock stars) et les volontés de négocier au mieux leurs créations sont très présentes (« ce sont des scènes de managers » chantait Alain Bashung), les pop stars, même apprenties, restent convaincues de l’importance de l’industrie musicale.
Et dans ce cadre, le réseau Internet devient aussi un autre outil de prescription. Certes la musique est « copiée », « échangée », mais elle reste globalement achetée. Les « copieurs » sont aussi des forts acheteurs (plus de trois disques par an). L’appétence musicale est liée à la quantité de musique disponible pour chacun. Si on limite les écoutes aux simples matériaux que l’on peut acheter, le désir de musique disparaît, la pratique d’écoute diminue… et les achats s’en ressentent. Ainsi va-t-il des créations culturelles : ce ne sont pas des marchandises comme les autres. Et les cris d’orfraie des intégristes du droit d’auteur n’y changeront rien : pour des profits immédiats, ils sont prêts à sacrifier leur secteur sur le long terme. Heureusement, jusqu’à présent les juristes ont été plus sages, qui ont mis en place de très nombreuses tolérances et droits privés dans les règles de la propriété intellectuelle. Des droits actuellement remis en cause… ce qui rend d’autant plus urgent et nécessaire de poser la question en termes d’élargissement démocratique.
La question de la démocratisation de la création musicale se pose dans ce domaine aussi par une articulation complexe entre : 1. Des décisions politiques favorisant la « diversité culturelle » : il s’agit de trouver des mécanismes pour éviter que la concentration des diffuseurs (canaux et média-planneurs), doublée de leur architecture verticale (ils sont à la fois producteurs, éditeurs, prescripteurs et diffuseurs), ne se traduise par l’uniformisation des productions musicales populaires à laquelle nous assistons. Une politique des quotas reste ainsi un bon outil, malgré ses limites et les détournements dont elle a pu faire l’objet. Un modèle de taxation qui limiterait les bénéfices quand une œuvre dépasse un certain seuil de ventes permettrait de rendre moins attractif le matraquage. Des interdictions de cumul des fonctions de diffuseur et d’éditeur iraient dans le même sens, ainsi que le refus de la publicité télévisée pour la musique. 2. Des pratiques alternatives permettant de maintenir vivant un patrimoine qui n’est plus forcément rentable (sur les réseaux P2P, on trouve de nombreuses œuvres qui ne sont plus diffusées). Le maintien d’une durée de monopole à 50 ans pour les enregistrements des interprètes (qui va être de plus en plus contestée par l’industrie), la tolérance sur les pratiques d’échange privées, le refus d’une constitution de monopoles verticaux entre les méthodes d’encodage des fichiers numériques et la vente de décodeurs (Apple avec iPod et iTunes)… de nombreuses voies sont ouvertes. 3. La constitution de communautés autour des créateurs, y compris en trouvant des modes de financement de la création par les fans. L’explosion des réseaux d’échange est souvent mal vécue par des créateurs non seulement en raison de la perte de revenus (en vérité assez faible pour tous sauf les plus vendus), mais surtout de la perte d’un statut : en achetant un disque, on délivre aussi une marque d’amour (l’auteur finit par savoir l’étendue de son audience). Dans la plupart des discothèques personnelles, on trouve souvent le suivi d’auteurs, sur plusieurs disques. Le réseau, par sa capacité à créer des communautés permet d’enregistrer cet état de fait… au plus grand bénéfice des créateurs.
En revanche, on doit réfléchir plus précisément sur des questions comme la « licence légale » et d’autres modèles qui se placent dans le cadre d’un combat entre deux industries majeures (l’industrie des contenus et celle des outils de lecture et de transmission). La question du mode de répartition des sommes induites reste centrale : statistiquement, ce seront encore les tenants du mainstream qui l’emporteront ; sur décision de commission, nous irons vers l’art officiel de sinistre mémoire. Encore une fois, évitons les solutions miracles pour réfléchir à la façon dont la démocratie peut jouer sur le rapport entre les intérêts de la société et des créateurs, et l’existence d’industries à tendance monopolistiques (l’effet réseau pour l’une, l’économie de l’attention pour l’autre).
Et dans le domaine culturel, la démocratie, c’est aussi le choix du « lecteur-auditeur-spectateur »… faisons en sorte qu’il ne soit pas dirigé, pré-mâché, par l’industrie. Et pensons aussi que le secteur musical n’est pas composé uniquement de créateurs et d’auditeurs, mais que l’ensemble des maillons d’un véritable secteur sont nécessaires, des roadies aux musiciens de studio, pour assurer la création pour une échelle de masse.

L’édition : du filtre à la percolation

Jusqu’à présent, l’édition fonctionnait comme un filtre nécessaire pour qu’un auteur trouve son public. Avec le développement des systèmes d’auto-publication sur le réseau, la donne est bouleversée. Les textes sont souvent disponibles sur le réseau avant d’être édités. Nous assistons sous nos yeux au basculement d’intermédiaires obligatoires (le filtre) à celui d’intermédiaires ayant un rôle de validation, permettant de passer de la communauté de lecteurs à l’audience. Dans cette nouvelle fonction de l’éditeur, il s’agit de faire lire au-delà du réseau de ceux qui ont déjà aimé dans la lecture directe sur le Web. Et même de vendre à ceux-ci un objet qui méritera la conservation, face à l’éphémère de l’écran.
On ne pourra plus empêcher un auteur d’avoir des lecteurs. Le samizdat, au sens d’un livre qu’on devait lire avec les doigts sur la machine à écrire pour le recopier, n’existe plus : la reproduction est immédiate, à grande échelle, diffusable, impossible à sourcer (du moins tant que les microprocesseurs n’auront pas un numéro d’identification unique…). Le réseau est par nature l’outil qui empêchera la censure. Mais pour autant, il reste un large travail aux intermédiaires de l’édition. Et d’abord repérer sur le réseau les auteurs qui savent créer autour d’eux, de leurs écrits, un réseau social, une « communauté ». Le travail intellectuel de sélection de ceux qui peuvent toucher une audience devient largement ouvert et public. C’est ce qu’on pourrait appeler une édition par percolation. La percolation est un terme de statistique qui indique le moment où un changement d’état se produit (par exemple quand les gouttelettes d’eau qui se chargent d’arôme dans une machine à café à pression fusionnent d’un seul coup pour couler dans la tasse : le moment de la percolation).
Les auteurs ont beaucoup à gagner à cette nouvelle configuration : leurs travaux ne sont plus examinés par un comité restreint, mais directement par un public élargi. Ils bénéficient de la structure en réseau de ce même public, qui peut ainsi jouer un rôle de prescription. Les idées circulent instantanément. C’est ce qui fait le succès des blogs : publication immédiate et constitution d’un « réseau des bloggeurs » qui peut même avoir des effets de masse, comme on a pu s’en apercevoir en suivant la campagne présidentielle 2004 aux États-Unis. Les éditeurs qui sauront jouer cette carte pourront aussi trouver le moyen de vivre en aidant à apposer une marque, un certificat de fiabilité, de qualité, en jouant la synergie entre les auteurs d’une même maison d’édition… On est certes très loin des fusions financières qui agitent actuellement l’édition française. Car ce mode d’édition reste lié à l’esprit « artisanal » de l’édition : on ne fait plus des œuvres de commande, de la « littérature à l’estomac », mais on participe de la valorisation d’œuvres existantes. La façon dont les auteurs sont attirés par les licences d’usage du type Creative Commons montre bien que ceux-ci distinguent ce qu’ils peuvent librement faire circuler (les idées, les connaissances) de ce qui leur permet de vivre de leur art (la vente d’ouvrages).
La tâche de la démocratie dans l’édition est non seulement de combattre la censure (mais on peut penser que techniquement et globalement, celle-ci est en perte de vitesse), mais surtout de participer à la clarté du processus de sélection des œuvres et à limiter les stratégies de renvoi d’ascenseur entre les prescripteurs et les auteurs. Là encore, il convient d’étudier les hypothèses politiques, comme l’édiction de règles de non cumul des activités d’édition et de diffusion, ou sur la concentration dans la presse. Mais le moteur principal du renouvellement est bien la décision des auteurs de faire circuler leurs œuvres, de créer un domaine public concédé au travers de licences d’usage et en exploitant les outils du réseau Internet.

La presse d’actualité : le statut du témoin

La presse connaît sous nos yeux un basculement du même type. Le premier événement significatif fut la couverture des manifestations anti-G8 à Gênes en 2001, et la capacité du réseau Indymedia à publier des témoignages qui ont discrédité la version de la police sur l’assassinat du jeune Carlo Giuliani, et obligé la presse à revoir l’événement([[Gênes, Multitudes en marche contre l’Empire, samizdat.net, Ed. Reflex, 2002). La seconde vague aura été la diffusion des photos de torture dans les prisons en Irak, obligeant la presse à finalement « dévoiler » aux yeux de tous ces événements.
Chacun sait que la presse « fixe l’ordre du jour ». En sélectionnant les événement dont il faut causer, elle fait (globalement, l’intimité de toute la « profession » étant très forte) le choix de ce qui doit préoccuper aujourd’hui tous les lecteurs. Ce comportement moutonnier est maintenant largement exploité par les spin doctors de l’industrie et des groupes d’influence : un dossier bien ficelé et le même jour, un produit, une industrie, un événement est repris par tous les titres, obligeant les lecteurs à focaliser leur attention.
La presse a aussi le rôle de « témoignage ». Les prix de presse (Pulitzer, Albert Londres) sont là pour valoriser les journalistes qui savent enquêter, retrouver, voir ce qui est caché aux yeux de tous. Or avec le réseau, on ne pourra bientôt plus rien nous cacher. Les témoins sont partout, équipés d’appareils photo numériques, d’enregistreurs, de téléphones mobiles, de micro-ordinateurs… Et si on peut manipuler une photo, suborner un témoin, il est impossible de modifier des dizaines de photos d’un même événement pris sous plusieurs angles, ni des dizaines de témoins spontanés et simultanés…
Le statut officiel du journaliste, qui permettait de faire foi en son témoignage est vacillant. Est-ce que pour autant il ne lui reste plus de rôle d’intermédiaire ? Là encore ce serait aller trop vite en besogne. D’abord parce que le témoignage est toujours partial et partiel. Il convient de mettre en relation diverses approches – travail qu’on enseigne dans les écoles de journalisme, même si le régime économique de la presse actuelle pousse les journalistes à en faire peu de cas. Ensuite parce que témoigner ne suffit pas à faire sens. Qu’il faut aussi recouper, renvoyer aux événements passés, émettre des hypothèses, secouer les pouvoirs par des questions dérangeantes… bref, la multiplication des témoins est une base pour un nouveau journalisme, qui peut se recentrer sur les interprétations, l’apport d’une vue extérieure, la confrontation de témoignages et d’enquêtes.
Cependant, le fait que les témoignages soient publics permet aussi une nouvelle forme de contrôle des journalistes. Les faits déformés, les interprétation abusives sont dorénavant faites « en public ». Les associations de surveillance comme l’Acrimed ou l’Observatoire des médias prennent alors une grande importance : faire le lien entre les faits publiés sur le réseau et les messages qu’en tirent les journaux. Le réseau, une nouvelle fois, ne supprime pas les intermédiaires, il renouvelle leurs pratiques, leurs responsabilités… et permet le retour critique sur les travaux produits. Du témoignage à la nouvelle lecture critique, la presse est maintenant dans une maison de verre. Mais le verre est parfois solide, et il est encore nécessaire de construire des médias tactiques, pour faire émerger de nouveaux « médiateurs de l’information », qui sauront écrire ou présenter les faits afin de redonner conscience et confiance aux multitudes.

De la démocratie et du réseau

Les quatre exemples effleurés dans cet article doivent nous inciter à mettre en perspective l’antienne « californienne » selon laquelle le réseau permettrait de se dispenser des intermédiaires.
Le réseau permet à chaque « auteur-créateur » de travailler à partir de sa propre vision et d’y rencontrer des lecteurs-auditeurs spectateurs. C’est une force nouvelle : l’investissement est faible, et l’intelligence seule permet de créer des événements, des documents, des textes, des images, des musiques… Le réseau construit des communautés pour partager, inventer, confronter… vivre ensemble des prémisses de ce que nous voudrions voir devenir une réalité commune. Le réseau organise la coordination, un travail typique d’intermédiaires.
Le réseau est le lieu de nouveaux affrontements entre secteurs industriels, notamment entre l’industrie des contenus et celles des outils, mais aussi au sein même de ces industries entre plusieurs secteurs et modèles économiques.
Ce qui importe, c’est de construire la démocratie en utilisant le réseau, et non de croire que d’elle-même la domination va s’effondrer sous la pression technologique. Les industries du contenu doivent être appréhendées comme des industries utiles : le créateur « isolé » n’est plus la figure de référence dans les productions culturelles et de connaissance. Cependant, cette industrie est allée très loin dans la surexploitation des auteurs, ce qui conduit à une forme de rejet. Son modèle économique est construit sur l’externalisation du travail intellectuel (les « intellectuels précaires »). Or les industries liées au travail intellectuel restent plus que d’autres soumises à la qualité créative (et de réflexion, de recherche, de travail d’interprète…) de leurs « prolétaires ». Les nouveaux rapports de production (entre l’industrie de l’immatériel et les créateurs de connaissance et de culture) rendus possibles par le développement des forces productives de l’immatériel (le réseau, mais aussi tous les outils de traitement de la connaissance) sont gros de nouvelles possibilités de recomposition.
Les travailleurs de l’immatériel s’organisent pour étendre le domaine public (domaine public consenti, par le biais des licences de type GPL pour les logiciels libres ou Creative Commons, pour les travaux de création, par l’auto-archivage des publications scientifiques…). Cela constitue un terrain totalement nouveau pour repenser les oppositions, les méthodes de subversion, la désobéissance… Les pratiques de parasitage, de refus de l’affrontement direct, les stratégies de convergence, la transparence des débats et des informations, l’émergence de pratique coopératives nouvelles, qui tissent et renforcent des communautés… toute une société nouvelle s’installe dans les interstices de l’ancienne.
L’objectif de cet article est d’ouvrir une discussion sur les orientations à donner à cette immense énergie mondiale. Les « intermédiaires » ne disparaissent pas sous les coups de la technologie et des usages astucieux que peuvent en faire les opposants. Parce qu’ils ont un rôle à jouer dans l’organisation d’une vie commune, une communauté de destin (notre planète, nos voisins…) qui ne peut se réduire à la sélection et l’élargissement de communautés de choix.
Il semble urgent et efficace de penser les intermédiaires comme des outils que l’on peut transformer. Ce sont les contradictions internes à ces métiers d’intermédiation, les concurrences entre secteurs qui vont ouvrir des brèches, provoquer des sursauts civiques, des prises de conscience. La façon dont les mouvements pourront appuyer sur ces contradictions dépend aussi de l’analyse que l’on peut faire de leurs pratiques, des avancées réalisées, et du chemin qui reste à parcourir. Le travail immatériel, la création, l’élaboration de connaissance, le traitement de l’information conduit à la constitution d’une chaîne de production, qui fait que les contestataires sont aussi parfois proches des centres de pouvoir. Le mouvements de chercheurs ou celui des logiciels libres sont très significatifs de cette situation.
La question démocratique, ce n’est pas seulement savoir comment exprimer son refus d’un monde inégalitaire et étriqué, mais bien définir les moyens pour qu’une société, partant de l’état dans laquelle elle se trouve, puisse frayer une voie qui donne sa place à de nouveaux acteurs, et renverse des positions de pouvoir au profit d’un intérêt global de la société, d’une articulation nouvelle entre les « créateurs » et les « lecteurs ». Vivre dès maintenant les alternatives proposées (ce que font les mouvements à l’intérieur du réseau), et penser les chemins pour contraindre les dominants et subvertir la domination (ce que font dans la pratique les acteurs des exemples cités dans cet article), constitue une stratégie combinée qui est rendue possible par la structure même du réseau, par le nouveau type de rapports de force qui s’y tissent et par sa capacité de coordination.
La « société de l’information » sera le théâtre de nouveaux types d’affrontements, de confrontations de projets différents, entre les tenants de la propriété et de la puissance et ceux de l’égalité et de la reconnaissance mutuelle. Ce qui est radicalement nouveau, c’est qu’avec le réseau, nous pouvons expérimenter directement, sans attendre un décision centrale, une « prise de pouvoir ». Ce que font les mouvements de subversion modernes.

Le Crosnier Hervé

Maître de conférences à l'Université de Caen, a écrit de nombreux articles sur les relations tumultueuses entre l'Internet et la société. Ses 100 petits papiers électroniques à propos du Sommet Mondial sur la Société de l'Information sont disponibles sur son site