Liens 32.

Internet : de quel séisme parle-t-on ?

Partagez —> /

Ce texte est le compte rendu de l’ouvrage de Marc Le Glatin, Internet : un séisme dans la culture ?, Toulouse, Éd. de l’Attribut, 2007.

La culture secouée : l’évolution des pratiques

Le premier fait à assimiler est le caractère massif, irréversible et rapide de l’adhésion du public aux nouveaux moyens de communication. » Début 2007, près de trente millions de français bénéficient d’un accès à Internet à haut débit. 40 % de plus qu’il y a un an. Plus de cent fois plus de personnes sont connectées à Internet qu’en 1997 » (p. 12). On considère qu’il y aura plus d’un milliard et demi d’internautes en 2010, c’est à dire dans deux ans (p. 23). Chez les 18-34 ans, 27 % des personnes ont Internet comme principale source d’informations (p. 28).

Le caractère participatif, collaboratif, ouvert et propice à la constitution de réseaux sociaux d’Internet se confirme. C’est principalement l’utilisateur qui fait et qui « est » le contenu. Il se crée un blog par seconde sur la planète. Le groupe News Corporation de Rupert Murdoch a racheté MySpace.com et ses 120 millions de membres pour 1,6 milliard de dollars. J’ajoute pour faire bonne mesure (bien que cette information ne se trouve pas dans le livre), qu’un service de réseautage social comme Facebook a dépassé les 60 millions de membres en 2007. Wikipedia, lancé en 2001, possédait en 2007 plus d’un million d’articles en 100 langues, 200 000 collaborateurs bénévoles et des millions d’utilisateurs quotidiens, ce qui en fait d’ores et déjà l’encyclopédie la plus complète et la plus consultée dans le monde. Média participatif d’un nouveau genre, le site coréen (du Sud) OhmyNews compte 50 000 citoyens reporters et 2 millions de lecteurs par jour. On pourrait continuer à multiplier les exemples…

Finalement, pour en venir au sujet principal de l’ouvrage, les pratiques de téléchargement, le plus souvent illégales, se multiplient et se banalisent. « La moitié des internautes français téléchargent des musiques ou des films, 70 % des 12-24 ans » (p. 36). La bande passante d’Internet est consommée à 80 % par les réseaux de P2P, c’est-à-dire les réseaux de communication pair à pair où s’échangent les fichiers de façon décentralisée entre les internautes (p. 118). On estime que 150 millions de films ont ainsi été téléchargés en 2006. Les échanges de fichiers musicaux atteignent des chiffres astronomiques. L’évolution des mentalités suit celle des pratiques : en France, les deux tiers des 14-25 ans pensent que la gratuité des films et de la musique est chose normale (p. 125). Résultat : les ventes de CD se sont effondrées de 41 % ces quatre dernières années (p. 105), et les jeunes regardent de moins en moins la télé classique. Comme les techniques de compression se perfectionnent, que les capacités de stockage augmentent, que la bande passante s’élargit constamment et que de nouvelles classes d’âge « nées avec Internet » ne vont pas manquer de se présenter, les téléchargements de fichiers vont certainement continuer à augmenter.

Les mutations esthétiques et institutionnelles

À la suite de très nombreux philosophes, sociologues, analystes, critiques et artistes qui se sont largement exprimés sur la question depuis une vingtaine d’années, Marc Le Glatin (qui les suit sans les citer) rappelle que les nouvelles technologies remettent en question le rapport « classique » entre le créateur et le consommateur d’art. L’hypertexte sur la Toile abolit la distinction habituelle rédacteurs / lecteurs. Les œuvres du « Net Art » sont le plus souvent ouvertes, invitant les interactants en ligne à participer à leur contenu. Comme les informaticiens adeptes de la programmation à sources ouvertes, qui recombinent et améliorent des modules logiciels puisés un peu partout en ligne, les artistes de toutes disciplines (qui sont aussi parfois des programmeurs) pratiquent l’échantillonnage, l’emprunt et le mélange. L’auteur devient utilisateur des œuvres des autres, le spectacteur (selon le mot de Jean-Louis Weissberg que Le Glatin ne cite pas) devient auteur. En général, toutes les données disponibles sur le réseau, quelle que soit leur origine, peuvent être traduites et combinées en de nouveaux arrangements de signes (musicaux, visuels, etc.) par les artistes (p. 46-47). Ces mutations esthétiques sont largement supportées par la structure non centralisée, « tous vers tous » du réseau, l’innovation venant des extrémités. Elles s’appuient également sur la disponibilité d’outils personnels de création numérique à bas prix, mais de qualité technique professionnelle. Toutes ces transformations pointent vers une montée de la création collaborative en ligne, l’estompement de l’œuvre individuelle finie et l’avènement de la nouvelle notion de « bien commun artistique » (p. 57).

Le changement du rapport à l’œuvre s’accompagne d’une transformation socio-institutionnelle, annoncée et analysée depuis une vingtaine d’années par de nombreux analystes (que Le Glatin, encore une fois, ne cite jamais) sous le nom de « désintermédiation ». Les éditeurs, critiques, conservateurs et autres intermédiaires du monde de la culture sont, en effet, de plus en plus court-circuités par des relations auto-organisées entre amateurs critiques, ou par des relations directes avec les auteurs. Le dernier en date de ces phénomènes de désintermédiation, et sans doute l’un des plus significatifs, est celui que les Américains nomment social bookmarking ou social tagging : « Des internautes indexent eux-mêmes des pages de livre ou des titres musicaux, y associent des mots-clés qui permettent à d’autres d’y venir » (p. 145). Selon l’auteur, la désintermédiation aurait pour conséquence de diluer la coupure entre culture de masse et culture savante, coupure qui serait entretenue par la couche de médiateurs patentés vivant de son maintien. « Sur la Toile, les critères d’une attitude de rejet réciproque entre culture de divertissement pour la masse et culture savante pour les élites s’affaiblissent au fur et à mesure que les médiations traditionnelles lâchent prise » (p. 50).

Une fois tous ces constats enregistrés, l’auteur pose la grande question : « Cette illimitation dans la circulation des œuvres ne risque-t-elle pas de nuire à la diversité culturelle ? » (p. 59) Sa réponse est sans équivoque. Vu la multiplication du nombre des acteurs participatifs de tous les coins du monde et les pratiques créatives d’échantillonnage, de mixage et de réemploi ; compte tenu du caractère décentralisé et ouvert du médium ; étant donné la tombée des barrières économiques à la création et à la diffusion dans le réseau, Internet constitue plutôt « une chance pour la diversité culturelle », mais il considère que cette chance ne se réalisera pleinement que « moyennant la pertinence de quelques interventions publiques » (p. 65).

Propriété intellectuelle et diversité culturelle

La seconde partie de l’ouvrage est consacrée aux problèmes croisés de la propriété intellectuelle et de la diversité culturelle.

Concernant la diversité culturelle, l’auteur rappelle les débats de la fin des années 1980 et des années 1990 qui ont accompagné les réunions du GATT, puis de l’OMC. Ces débats se sont cristallisés autour de deux positions. Selon la première, principalement défendue par les États-Unis et leurs alliés, les biens culturels (livres, films, musique, etc.) doivent être traités comme n’importe quel autre bien économique et l’on doit en conséquence abaisser les barrières douanières pour faciliter leur circulation. La seconde position, principalement défendue par le camp de la francophonie, considère que des mesures de protection par les États (notamment : subventions et quotas), sont plus acceptables dans le cas des biens culturels que lorsqu’ils s’agit d’échanger du maïs, des voitures ou des services bancaires. Après avoir défendu le concept d’« exception culturelle », les opposants à la libéralisation des échanges sur les biens culturels, désormais majoritaires, se sont rassemblés autour de la notion de « diversité culturelle », entendue comme bien commun de l’humanité. Une convention internationale adoptée le 20 octobre 2005 par l’Unesco, et entrée en vigueur en 2007, précise la nature spécifique des biens et services culturels et étend la protection de la diversité aux cultures minoritaires qui s’épanouissent à l’intérieur même des États nationaux. Néanmoins, avec l’accélération du téléchargement sans frontière, les politiques de quotas perdent progressivement leur sens. Mais Le Glatin note que les subventions sont toujours pertinentes.

Au sujet du droit de la propriété intellectuelle, l’auteur brosse à grands traits sa naissance en Europe à partir de la fin du XVIe siècle. Il souligne la distinction entre le copyright né en Angleterre, qui est essentiellement un droit de copie (un monopole d’impression) détenu parun éditeur selon un régime de type féodal ou rentier et le droit d’auteur, qui s’est développé en France. Le droit d’auteur accorde une place au droit moral inaliénable de l’auteur sur son œuvre, et non seulement à l’investisseur-éditeur. Il faut également noter que le retour des œuvres dans le domaine public était plus rapide à l’origine qu’il ne l’est aujourd’hui, à cause de la pression continuelle des éditeurs sur le législateur (dix ans après la mort de l’auteur au début du XIXe siècle, soixante-dix ans aujourd’hui). Ici encore, le « remixage » généralisé fait éclater le droit moral de l’auteur, tout comme le téléchargement et la reproduction quasi-gratuite du numérique rendent obsolète un copyright qui ne se justifie plus par le service rendu.

Les deux modes de la propriété intellectuelle éclatent parce que les œuvres, dès qu’elles sont numérisées, ne sont plus des biens rares. « Leur usage par une personne ne prive jamais d’autres d’en profiter » (p. 97). Quand je te donne de l’information, je n’en perd pas. C’est parce qu’il n’y a pas de rareté des signes dans l’univers numérique que la culture peut devenir un bien commun. Mais alors, comment rétribuer les auteurs-créateurs originaux ? Le Glatin énumère trois positions possibles avant d’énoncer la sienne.

Première riposte possible : la criminalisation des internautes. Passé aux États-Unis en 1998, le Digital Millenium Copyright Act favorise les mesure techniques de protection des œuvres et la répression du piratage. On se souvient de la fermeture de Napster en 2001. La Recording Industry Association of America (RIAA) intente 300 procès par an, et l’industrie du film s’y met aussi. En France, la loi DADVSI (loi sur les droits d’auteurs et droits voisins dans la société de l’information), adoptée en juin 2006, suit la même pente de criminalisation. L’inadéquation de cette riposte est évidente : elle tient à sa difficulté d’application, puisque c’est toute une classe d’âge (et bientôt toute une population) qui se trouve être « contrevenante ».

La seconde riposte est technique : des programmes appelés DRM (pour digital rights management) interdisent la libre copie ou détruisent les fichiers au bout de quelques jours. Le consommateur n’achète qu’un droit d’usage limité et non un produit qui lui appartiendrait. Les éditeurs de DRM (Apple, Microsoft, Sony…) peuvent en outre se livrer grâce à leurs programmes à un profilage marketing des consommateurs. La faiblesse de ce deuxième type de riposte est bien connu : aussitôt que de nouveaux systèmes de DRM sont inventés, des programmeurs « pirates » publient les algorithmes de décodage correspondants.

La troisième riposte possible, de plus en plus populaire, consiste à laisser les œuvres en accès gratuit sur des sites financés par la publicité ou par des abonnements forfaitaires donnant droit à « tout » télécharger. On voit aussi fleurir des boutiques de vente en ligne « équitables » reversant plus de 60 % aux auteurs et donnant droit à la copie privée. Reste que la majorité des internautes préfère le P2P gratuit et les échanges sans publicité…

La (quatrième) solution, proposée par Marc Le Glatin, suivant ainsi certains des opposants à la loi DADVSI, est une « licence globale », c’est-à-dire un « forfait sur les abonnements à Internet en compensation du droit au téléchargement et à la mise à disposition illimitée d’œuvres protégées ». En somme, une « consommation illimitée en échange d’un paiement fixe » (p. 137). Cette solution peut prendre exemple sur la rémunération mutualisée pour profit privé, qui est une taxe prélevée en France sur les enregistreurs à cassette et magnétoscopes ; taxe redistribuée aux auteurs, producteurs, interprètes… un quart du montant allant à l’aide à la création, au spectacle vivant et à la formation artistique. Inspiré de cet exemple, la licence globale veut étendre le mécanisme de perception aux supports de téléchargement et aux abonnements d’accès à Internet pour « rémunérer l’ensemble des auteurs via un fonds collectivement géré ».

Discussion : de la transcendance de l’État aux jeux d’intelligence collective

La taxe devrait-elle être perçue sur les ordinateurs, les iPods, les téléphones portables, etc. ? Marc le Glatin n’entre pas dans les détails. Une autre question qui reste en suspens concerne la redistribution des fonds prélevés. Faut-il redistribuer au prorata des ventes de supports physiques, des entrées de spectacles ? Faut-il au contraire capter les flux de données dans les réseaux, auquel cas les données devraient être préalablement « marquées » (watermarking) par l’empreinte de la source-auteur ? Mais alors, quelle instance, nécessairement « centrale », serait chargée de mesurer ces flux océaniques, sans que l’adresse des internautes soit dévoilée ? Et finalement, qui doit redistribuer, et selon quels critères ? Car puisqu’il s’agit d’un réseau mondial déterritorialisé, il semble bien qu’on ne puisse plus faire appel à l’État au singulier. La réponse de Le Glatin invoque une « instance de concertation comprenant des représentants des États, des entreprises, des ONG ». On suppose qu’il s’agit de tous les États, mais de quelles ONG s’agit-il, de quelles entreprises ? Au nom de qui sont censés parler les membres de cette instance : les internautes, les artistes ? Et qui les désigne ? À la page 156, Le Glatin nous renvoie ultimement à des accords multilatéraux entre États dans le cadre de l’ONU, c’est-à-dire à une instance qui serait au fond du même type que celle de l’OMC (une sorte d’OMC de la culture) !

C’est donc l’État, en dernière instance, qui serait censé aider les internautes à résoudre le problème de la constitution d’un bien commun culturel planétaire, l’État qui devrait faciliter la naissance de nouveaux modes de régulation pour la création et l’échange des signes culturels dans le cyberespace. Après les pages lyriques sur la « mutation anthropologique » (p. 11 et 136), le séisme culturel et l’éclatement probable des superstructures politiques (p. 12), Le Glatin n’a rien d’autre, dans le fond, à proposer que « l’alliance des internautes avec les États de droit » (p. 153). Dans son idéalisation de l’État, Le Glatin n’y va pas de main morte : « La diversité culturelle [est] un processus aux potentialités destructrices et constructives qui peut, à ce titre, être contrôlé par la puissance publique. La diversité mérite même de devenir le thème d’un projet politique. Tout projet politique suppose en effet qu’il existe une maison commune, un espace public à l’intérieur duquel les différences culturelles sont transcendées sans être niées. Mais la transcendance s’élabore hors des rapports de domination (…) » (p. 78). L’État constituerait une transcendance hors des rapports de domination ? La puissance publique devrait contrôler les processus de destruction créative de la diversification culturelle ? Il semble que Marc Le Glatin n’ait pas véritablement reçu les messages de Derrida, Guattari ou Castoriadis, auxquels il ne se réfère marginalement que pour mettre quelques « autorités » de son côté. L’expérience historique montre que l’aspiration de l’État à la transcendance est à l’origine de bien des totalitarismes. Au cas où nous n’aurions pas saisi les finesses du contrôle de la diversité culturelle par l’État, Le Glatin va jusqu’à préciser : « En France, on a unifié la culture pour avoir la démocratie. Le français est devenu la langue de la citoyenneté et de la liberté, conquise aux dépens de l’obscurantisme. » Aux dépens de l’obscurantisme ? Les fantômes des Albigeois massacrés, des Provençaux et des Bretons dépossédés de leur langue s’agitent sous leurs linceuls. L’obscurantisme, c’est toujours celui de l’autre : voilà au moins une leçon du postmodernisme dont Le Glatin aurait pu se souvenir.

Mais, au fait, qui criminalise les internautes ? Qui tente d’imposer des censures politiques sur le Net ? Ce sont précisément les États. Les internautes devraient donc s’allier avec les pouvoirs qui les criminalisent et les censurent… La stratégie ne me semble pas très bien pensée, et cela précisément, à mon sens, parce que la mutation anthropologique de la cyberculture — quoique rituellement récitée — n’est ni sentie, ni comprise. Les États sont indispensables, utiles et compétents dans la régulation des rapports entre des populations, des territoires et des biens matériels, c’est déjà beaucoup. Mais dès lors que les symboles se détachent de supports lourdement inscrits sur le territoire et deviennent ubiquitaires, mutants, recombinables et connectifs dans le réseau mondial, je ne vois pas comment ces « plus froids des monstres froids » selon l’expression de Nietzsche, pourraient nous aider à progresser dans l’invention d’un nouvel espace anthropologique accueillant l’ensemble des signes humains numérisés en interaction. On ne peut attendre d’un groupement de pouvoirs territoriaux qu’ils innovent dans la création d’un espace sémantique infini accueillant la mémoire commune de l’humanité dans son évolution vers la complexification et la diversification. Pour ma part, j’aurais tendance à invoquer, plutôt que l’État (cette création du néolithique) l’effet de collectifs intelligents déterritorialisés, quelque chose comme une société civile planétaire explorant et recréant l’univers des signes humains. Adopter le cosmos symbolique comme son ultime patrie n’empêchera évidemment pas d’habiter quelque part et de voter pour des élus municipaux, régionaux, nationaux ou supranationaux.

Vers une culture de l’intelligence collective

À mon sens, plutôt que d’être laissée à des comités réunissant des représentants de bureaucraties, la question de la propriété et de la valeur des biens intellectuels — ou culturels — doit être laissée ouverte au plus grand nombre de jeux d’intelligence collective (autogérés) possibles. On observe déjà en pointillé les acteurs de ces multitudes de jeux différents se regrouper en communautés virtuelles de lecteurs, spectateurs, éditeurs, amateurs, critiques, auteurs et artistes. À chaque type de jeu correspond — de manière plus ou moins formalisée — une certaine organisation de la mémoire, un univers sémantique particulier, ainsi qu’un mode singulier de mesure et de redistribution de la valeur. À partir d’un certain degré de formalisation, ces jeux pourraient entrer en relation explicite de compétition coopérative, échanger et recombiner des éléments de leurs univers et de leurs règles, tout en reflétant les valeurs, les choix et les intérêts de communautés indéfiniment diverses. Sous l’angle de la production, de la circulation et de la distribution de la valeur, de tels jeux d’intelligence collective pourraient être considérés comme des économies de l’information, variées, évolutives et mutantes comme leurs communautés porteuses. Il y aurait ainsi, dans l’univers virtuel de la mémoire humaine, autant de noosphères en interaction que d’économies de l’information attachées à exploiter et enrichir au mieux la ressource commune selon des perspectives originales.

Mais l’autonomisation d’une culture mondiale de l’intelligence collective prenant appui sur Internet est interdite par Le Glatin, puisque « La culture universaliste [est] un non-sens ! » (p. 81) Les arguments à l’appui de cette thèse semblent malheureusement se réduire au point d’exclamation qui la termine. Pourtant, on nous annonce l’émergence d’un bien commun planétaire. Pourtant, la « mutation anthropologique » se trouve précisément en rapport avec la gestation d’une mémoire commune de l’humanité, mémoire qui sera, à terme, universellement accessible. Hélas, selon Le Glatin, il ne faut pas promouvoir la culture commune mais le bien commun : « la diversité des cultures constitue à tout moment un bien commun de l’humanité comme elle constitue un bien commun dans chaque nation ». Mais puisque la culture nationale est fondée sur une mémoire et un espace public communs, pourquoi la constitution accélérée d’une mémoire et d’un espace public mondiaux ne donnerait-elle pas naissance à une culture mondiale… de la diversité ? La vulgate postmoderne confond l’unité — c’est-à-dire l’interdépendance et l’interaction au sein d’un espace symbolique partagé — avec l’uniformité ou l’identité. Pourtant, dès l’instant où la diversité des cultures est réunie, non seulement dans un concept commun, mais encore dans un contenant commun et ubiquitaire, les conditions d’une culture commune sont créées. Car qu’est-ce qu’une culture, sinon un écosystème symbolique complexe entretenu par une population d’humains ? Et puisque les multiples écosystèmes de signes interagissent de plus en plus dans le même espace virtuel, il est temps d’en appeler sans tabou à un universel culturel humain, un universel évidemment compris comme intrinsèquement pluriel, divers, mutant, évolutif, ouvert. Dès 1997 (Cyberculture), j’avais étiqueté ce concept du nom d’« universel sans totalité ». Dans cette discussion, nous sommes évidemment passés de la culture comme concept marketing — consommation de musique, films, livres — à la culture comme concept anthropologique.

Une fois surmonté l’interdit postmoderne de l’universel, venons-en maintenant aux obstacles concrets qui empêchent aujourd’hui la culture mondiale de l’intelligence collective de prendre son essor. Je voudrais d’abord dresser un parallèle entre les espaces physiques et sémantiques. Il faut se souvenir que le système de coordonnées géographiques universel — les méridiens et les parallèles — n’a commencé à devenir effectif qu’aux XVIII et XIXe siècles. Par la suite, la mesure universelle du temps qui permet aujourd’hui de coordonner les vols de tous les avions de la planète (le système des fuseaux horaires) n’a été institué qu’au début du XXe siècle. Les systèmes de coordonnées spatio-temporelles, à la fois universels (ce qui fait leur utilité) et culturels (ce sont des conventions symboliques, des outils construits en vue d’une fin) ont accompagné de manière très concrète les voyages, les échanges et l’unification (conflictuelle) planétaire des trois derniers siècles. Par analogie, on peut considérer que la fragmentation et l’opacité contemporaines du cyberespace tiennent à l’absence d’un système de coordonnées sémantiques commun, par delà la multiplicité des disciplines, des langues, des systèmes de classification et des univers de discours. Qu’un tel système de coordonnées balise l’espace sémantique (virtuellement infini), et aussitôt les processus d’intelligence collective — aussi transversaux, hétérogènes et divers soient-ils — pourraient commencer à s’observer — à se réfléchir — dans le miroir immanent du cyberespace. Un protocole de l’intelligence collective établissant des échanges standard de métadonnées sémantiques et ouvert à tous les jeux d’indexation, de classement, de recherche et de circulation de la valeur possibles me semble préférable à une sorte de Super-État onusien administrant de façon centralisée la nouvelle économie de l’information.

Quant aux pouvoirs qui s’opposent aujourd’hui à l’autonomie de l’intelligence collective, il ne s’agit, malgré leurs censures, ni des États (ils sont trop lourds), ni des majors de la musique et du cinéma — ces dinosaures dont se rient la majorité des internautes — ni même de l’ICANN, qui n’a que le pouvoir limité et statique d’attribuer les noms de domaine. Le vrai pouvoir actif et centralisé est aujourd’hui détenu par les entreprises du World Wide Web Consortium (W3C), qui réunit Google, Yahoo, Microsoft, AOL et quelques autres. Ceux-là ne bloquent l’évolution que parce qu’ils la contrôlent en la produisant (contrairement aux États, aux majors ou à l’ICANN, qui ne contrôlent pas grand-chose d’important parce qu’ils n’innovent pas).

Ces entreprises possèdent un quasi-monopole sur les services de recherche, qui leur permet non seulement d’exercer une censure politique, le cas échéant (comme cela se voit en Chine et ailleurs), mais également une censure commerciale à leur profit ou à celui de leurs plus gros clients. Les moteurs de recherche de Google, Yahoo ou Microsoft sont faibles (ils ne couvrent que 20 % du Web) et inintelligents : ils sont incapables de s’adapter à des perspectives singulières, d’ordonner les résultats selon des critères variés, d’attribuer une valeur à l’information, de chercher par concepts au lieu de chercher par mots de langues naturelles, etc. Leur principale visée est de faire rendre aux clics de l’internaute le maximum de redevances publicitaires. Ils manquent notoirement de transparence, puisque leurs algorithmes de recherche sont des secrets commerciaux.

De plus, le Web dit « sémantique » promu depuis plus de dix ans par ce consortium de grandes entreprises ne suscite pas les progrès attendus. Aussi utiles que soient les formats de données XML (eXtended Markup Language), RDF (Ressource Description Framework) ou OWL (Web Ontology Language), ils ne résolvent pas le problème de l’opacité et du chaos créés par la multiplicité des langues naturelles, des taxinomies et des systèmes de classification. En prétendant indûment prendre en charge la « sémantique » alors qu’il ne s’occupe que de logique et de formats de données, le Web Consortium bloque l’imagination intellectuelle qui pourrait mener à un système de coordonnées sémantiques universel. C’est ainsi que la mise au point de systèmes originaux de notation du sens, capables d’exploiter les nouvelles possibilités de traitement automatique au service de l’intelligence collective en ligne, est délibérément éliminée de l’agenda de recherche.

Finalement, leurs immenses services centralisés de moteurs de recherche, de messagerie et de réseaux sociaux permettent à ces entreprises oligopolistiques de revendre — uniquement à des fins de marketing — l’immense quantité d’information produite par les internautes au cours même de leur activité. Autrement dit, nous sommes dépossédés de l’information que nous produisons en masse et que nous pourrions utiliser au profit de nos intelligences collectives particulières et du développement humain en général.

À l’ère de la société du savoir, toute perspective d’émancipation ne peut que s’appuyer sur une puissance d’innovation indissolublement symbolique, sociale et technique. Si l’on veut avancer vers une culture mondiale centrée sur l’exploitation et l’alimentation ouverte de ce bien commun qu’est la mémoire humaine en ligne, c’est donc le pouvoir des entreprises du Web Consortium qu’il faut défaire, contourner ou harnacher, avec l’aide du mouvement du logiciel libre, tout en s’appuyant sur un système de coordonnées sémantiques commun et transparent.

Bibliographie

R. Ascott (dir.), Reframing Consciousness, Exeter, Intellect Books, 1999.

R. Ascott (dir. E. A. Shanken), Telematic Embrace, Berkeley, University of California Press, 2003.

R. Axelrod, The Evolution of Cooperation, New York, Basic Books, 1984.

J.-P. Balpe, Contextes de l’art numérique, Paris, Hermès science, 2000.

M. Castells, The Information Age, Economy, Society and Culture, (3 vol.), Oxford, Blackwell, 1998 (L’Ère de l’information, 3 vol., Paris, Fayard, 1997-99).

Digital Opportunity Initiative (Final Report), Creating a Development Dynamic, New York, United Nations, 2001

F. Feigenbaum et al., « The Semantic Web in Action », Scientific American, décembre 2007, p. 90-97.

G. Gilder, « The Information Factories », in Wired, octobre 2006.

P. Himanen, The Hacker Ethic and the Spirit of the Information Age, New York, Random House, 2001 (L’Éthique hacker et l’esprit de l’ère de l’information, Paris, Exils, 2001).

M. Le Glatin, Internet : un séisme dans la culture ?, Toulouse, Éd. de l’Attribut, 2007.

P. Lévy, L’Intelligence collective. Pour une anthropologie du cyberespace, Paris, La Découverte, 1994.

P. Lévy, Les Technologies de l’intelligence. L’avenir de la pensée à l’ère informatique, Paris, La Découverte, 1990.

P. Lévy, Qu’est-ce que le virtuel ?, Paris, La Découverte, 1995.

P. Lévy, World Philosophie : le marché, le cyberespace, la conscience, Paris, Odile Jacob, 2000.

P. Lévy, L’Intelligence collective, Paris, La Découverte, 1994.

P. Lévy, Cyberdémocratie : Essai de philosophie politique, Paris, Odile Jacob, 2002.

N. Luhmann, Reality of the Mass Media, Stanford, Stanford University Press, 2000.

M. McLuhan, The Gutemberg Galaxy, Toronto, University of Toronto Press, 1962 (La Galaxie Gutenberg. La genèse de l’homme typographique, Paris, Gallimard, 1977).

M. McLuhan, Understanding Media : The Extensions of Man, New York, New American Library, 1964 (Pour comprendre les média. Les prolongements technologiques de l’homme, Paris, Seuil, coll. « Points », 1977).

R. Packer, K. Jordan (dir.), Multimedia, from Wagner to Virtual Reality, New York, Norton, 2001.

J. Rifkin, The Age of Access, New York, G. P. Putnam’s Son, 2000 (L’Âge de l’accès. La révolution de la nouvelle économie, Paris, La Découverte, coll. « Pocket », 2002).

V. Serfati, The Mirror and the Veil. An Overview of American Online Diaries and Blogs, Amsterdam, New York, Rodopi, coll. « Amsterdam Monographs in American Studies », 2004.

D. Weinberger, Small Pieces Loosely Joined, a Unified Theory of the Web, Cambridge, Perseus Books, 2002.

J.-L. Weissberg, Présences à distance, Paris, L’Harmattan, 1999.

S. Wilson, Information Arts : Intersections of Art, Science and Technology, Cambridge, MIT Press / Leonardo Books, 2001.

www.olats.org/livresetudes/basiques/basiques/php

www.ieml.org