Tous experts !

Des réseaux d’échange de savoirs techno-scientifiques « Si on vous croit primaire, faites dans la technique ; si on
vous croit technique, donnez dans le primaire. Moi, je suis du genre
hypertechnique. Alors j’avais décidé d’être le plus primaire possible.
Quoique, de nos jours, il faille être sacrément technicien, ne fût-ce
que pour aspirer simplement à jouer les primaires. » – Johnny Mnemonic, dans une nouvelle de William Gibson.

La communication digitale est indissolublement liée à l’informatique, au
point que l’histoire même des réseaux se confond en plus d’un point avec celle de ses technologies tant matérielles que logicielles. L’Internet
est le produit de la révolution micro-informatique et de l’Unix ; au
même titre que les avancées du savoir-faire logiciel, et en particulier
du Logiciel libre, doivent énormément aux potentialités coopératives
offertes par le réseau des réseaux [[Voir, Marshall McKusick, « Deux
décennies d’Unix Berkeley », et Eric S. Raymond, « Une brève histoire
des hackers », in Tribune libre. Ténors de l’informatique libre,
O’Reilly, 1999. Voir aussi Laurent Moineau, Aris Papathéodorou, «
Coopération et production immatérielle dans le logiciel libre », in
Multitudes, n° 1, Exils, mars 2000.. Au sein de ce processus se
sont constitués des sujets collectifs multiples, les fameuses «
communautés virtuelles » de Howard Rheingold[[Howard Rheingold, Les communautés virtuelles, Addison-Wesley, 1995., qui ont acquis et/ou développé des formes d’expertises particulières et spécifiques. De la simple utilisation des outils logiciels de communication via l’Internet
au développement du code informatique ; de l’invention des usages (par
exemple l’utilisation des newsgroups par les ONG) à l’invention de
nouveaux langages de programmation (Perl, Python, PHP pour ne citer que les plus connus) jusqu’à la création de systèmes d’exploitation libres
(les BSD, GNU/Linux, mais aussi tant d’autres). Aujourd’hui, avec la « massification » de l’accès à l’Internet, avec l’intérêt croissant que
suscite un système comme GNU/Linux, il me semble qu’un des enjeux
majeurs – pour le Logiciel libre et pour l’Internet – réside dans la
question de la transmission de l’expertise, dans la diffusion des
savoir-faire et dans l’élargissement des procès coopératifs.

« L’acte technique met en oeuvre un savoir-faire et des connaissances
tacites, qui sont déposées dans le corps de l’opérateur sous la forme de
mémoires incarnées, comme les gestes et les postures » [[Nicolas Auray, « L’apprentissage de l’informatique par les démos et l’épanouissement des singularités des êtres humains. Souci de soi, arrogance, autodérision », in Thèse, 2001.. Le processus d’appropriation individuelle des compétences via les structures communautaires a fait ses preuves, et reste dans une large mesure opérationnel. Dans le même temps, la clôture « identitaire », un certain élitisme diffus, tout comme l’afflux massif d’utilisateurs néophytes, contiennent le risque de développement d’un dualisme entre un corps indistinct des utilisateurs et des cercles restreints d’initiés, fussent-ils des sujets hybrides entre cultures techniques et usages sociaux. Au parcours initiatique individualisé, et forcement hautement sélectif, il faut opposer un autre modèle de circulation des savoirs, un processus ouvert d’acquisition des
savoir-faire et de circulation des expériences. Les possibilités
étendues d’échanges offertes par les réseaux et les ressources en outils
de travail coopératif offertes par le Logiciel Libre rendent une telle
hypothèse non seulement possible, mais praticable.

Je voudrais donc partir ici d’un ensemble de remarques générales, d’un
balayage rapide du processus de cristallisation d’une intelligence
collective autour du cyberspace, pour tenter d’argumenter la nécessité
de réseaux d’échange de savoirs techno-scientiques.

Un bassin d’intelligence sociale

1- La multitude des pratiques de hacking[[Le terme est pris ici
dans son sens historique et originel de « manipulation du code » et non
dans son acception vulgaire de « pirate ». qui se sont développées ces
vingt ou trente dernières années au gré de la croissance de l’Internet
et de l’explosion micro-informatique, dans leur diversité et leur
dispersion, constituent un véritable bassin d’intelligence sociale dont
le Logiciel Libre est aujourd’hui, en quelque sorte, la production la
plus aboutie.

Mais il serait faux de limiter le phénomène à la seule apparition sur le
marché de « produits finis » – logiciels plus performants, plus « user
friendly » ou plus faciles à adapter pour les utilisateurs avertis -, ou
de ne voir là qu’une simple émergence d’un nouveau paradigme économique (celui de la « nouvelle économie » pour le dire vite) particulièrement expansif.

La culture hacker d’abord, à la façon empirique d’un droit coutumier,
puis le mouvement du Logiciel Libre, comme affirmation directement
politique, en posant comme centrale la nécessaire liberté de circulation
et d’utilisation du code source, en pratiquant de fait la coopération
productive dans l’innovation logicielle, ont produit bien plus que des
lignes de code : ils ont contribué à une large diffusion des savoirs
techno-scientifiques au-delà des seuls cercles d’experts ; ils ont
largement estompé la distinction entre producteur (du code) et
utilisateur (du logiciel, c’est-à-dire du code compilé).

Nous sommes ainsi, pour la première fois de façon aussi claire
peut-être, face à un cycle de production et d’innovation sociale
coopératif, collectif et communautaire, qui investit une multitude de
sujets en dehors de tous les schémas classiques – entreprise capitaliste
ou commande publique – de la division du travail, au-delà des seules
surdéterminations du marché, et qui repropose la primauté de la valeur
d’usage, de l’utilité sociale, non seulement du « produit » mais de ce
qu’il contient de savoir, d’innovation, de processus et d’affect. La
révolution du « Libre » consacre ainsi un modèle où l’innovation et la
production se fondent non plus sur une logique hiérarchique
d’entreprise, mais sur le véritable bassin d’intelligence sociale que
constituent, à des titres divers certes, les équipes de développeurs et
les utilisateurs, les initiateurs des projets et ceux à qui ils
s’adressent.

La structure qui connecte

2- La révolution informatique (de la naissance de l’Unix à celle de
« Linux » en passant par le projet GNU) n’aurait très certainement pas
eu lieu sans le développement simultané des réseaux, puis leur
convergence dans l’Internet. Les forums (newsgroups) et les mailing -lists, en particulier, ont joué un rôle déterminant dans la circulation, mais aussi dans l’élargissement des possibilités de coopération et de co-développement pour la production d’une multitude de composants logiciels.

Mieux, c’est l’Internet qui a permis que ce processus – au départ propre
aux seules « communautés virtuelles » des hackers – s’élargisse de façon spectaculaire à une foule de sujets diversifiés : simples « usagers » désireux de devenir aussi « acteurs », étudiants voulant accroître leurs
moyens de recherche malgré le sous-équipement des universités,
adolescents excités par le défi « technique », militants associatifs à
la recherche de solutions informatiques à « bas prix », etc. L’innovation logicielle est ainsi sortie des laboratoires de la recherche scientifique de pointe, où tout se jouait dans les années 1950-60, et même des équipes d’entreprises, pour investir un champ social bien plus vaste.

De fait, l’Internet, comme structure qui connecte, constitue aujourd’hui
la forme même de l’organisation moléculaire de ce formidable cycle de
production immatérielle. Les groupes d’utilisateurs de GNU/Linux – les
fameux LUGs -, les communautés de codeurs en Perl ou PHP, diverses
équipes de type hacklabs ou medialabs, des projets de logiciels libres ou encore le formidable effort pour mettre en ligne documentations, traductions ou tutoriaux divers et variés, trouvent sur le Web une visibilité tout à fait propice à leur développement.

Une visibilité qui n’est pas ici une simple mise en scène, pure
représentation spectaculaire, mais surtout une ouverture sur des
possibilités effectives de collaboration et d’enrichissement réciproque,
non seulement entre les équipes de développement et les utilisateurs,
mais aussi entre les utilisateurs eux-mêmes. Les forums sur le Web
(webBBS) ou les mailing-lists d’utilisateurs de logiciels sont ainsi
riches de cette circulation productive de savoirs, de cet échange
d’expériences et d’inventivité entre utilisateurs, qui contribuent à une
amélioration du code, certes, mais permet surtout la constitution et la
diffusion de « savoir-faire » parmi ceux-ci, tout comme l’innovation
dans les usages possibles de tel logiciel ou tel script.

Le cyberspace est aujourd’hui, par définition, le territoire sans
limites où se déploie cette formidable intelligence collective.

Autonomie et coopération

3- Dans le même temps il n’y a pas d’avènement prophétique de
l’intelligence collective [[Pierre Levy, World Philosophy, Collection
« Le champs médiologique », Odile Jacob, 2000. Contrairement à ce
qu’affirme P. Levy dans son dernier ouvrage, l’intelligence collective
reste un projet, ou une potentialité diffuse, dont la réalisation se
heurte aujourd’hui à des intérêts privés, ceux des grandes compagnies de logiciels ou des lobbies corporatifs comme la Sacem, ou encore à des
initiatives institutionnelles comme celle visant à instaurer un « brevetage des logiciels » en Europe, par exemple.. Le développement de
masse de l’utilisation de l’Internet et la formidable croissance du
développement du logiciel libre et/ou open source, bien que fondés
essentiellement sur la puissance de création et de production sociale
des « communautés virtuelles », en marque aussi dans le même temps
certaines limites. Le paradigme communautaire, en effet, s’il reste sans
doute largement opérant sur le strict niveau du développement logiciel –
et largement plus opérant, en tout état de cause, que le modèle «
taylorien » d’une innovation séparée de la production et des usages,
enfermé dans les laboratoires professionnels et le système du code
propriétaire -, s’avère dans le même temps bien trop étroit pour faire
face à la multiplication et la diversification des figures sociales qui
agissent sur les territoires de la communication.

À côté du modèle de l’utilisateur-acteur qualifié, symbolisé par la
figure du hacker, à côté des formes d’auto-organisation communautaires
qui foisonnent dans le cyberspace, apparaissent aussi les multiples
déclinaisons de l’internaute-masse, un ensemble protéiforme de sujets
pour qui, dans le meilleur des cas, le rapport à l’Internet est d’abord
un rapport d’utilisation de services ou, éventuellement, un «
détournement » de ces services à usage personnel ou collectif. Cet «
internautariat », s’il est capable de produire des usages intelligents
des réseaux, comme au cours du mouvement des enseignants de l’hiver
1999-2000 en France, se retrouve très vite enfermé dans l’espace balisé
de l’offre commerciale sur le Web. Un exemple significatif : la présence
massive de mailing-lists associatives ou militantes sur les services de
portails commerciaux comme eGroup, Listbot (Microsoft), Voilà (France
Telecom), Topica, etc.

Il ne faut pas se leurrer, l’utilisation du Logiciel Libre, et des
ressources communicationnelles de l’Internet qui s’appuient sur
celui-ci, bien qu’étant passée des cercles restreints d’une « élite » de
codeurs à des communautés larges et ouvertes nombreuses, reste un fait encore largement minoritaire. Le modèle de l’internaute-consommateur, utilisateur passif et client potentiel des portails du Web, reste largement dominant, et le sera d’autant plus que l’évidence de l’accès à l’Internet se diffusera auprès de ceux qui sont coupés de l’histoire des réseaux, de la longue marche de l’informatique libre et des insurgences subjectives qui ont fait l’Internet tout autant que la commande militaire de l’Arpa[[Sur l’histoire de l’Internet voir Howard Rheingold, op. cit..

Des savoirs techno-scientifiques en réseau

4- Richard M. Stallman insiste aujourd’hui particulièrement sur
l’importance stratégique pour le Logiciel libre de la documentation, ou
plutôt du développement d’une documentation libre. Ce qui manque en
effet cruellement aujourd’hui ce n’est pas tant du « code de qualité » –
le cycle productif du logiciel libre en produit à une cadence effrénée
-, mais des manuels libres qui permettent aux utilisateurs d’acquérir,
de partager et de co-produire des savoirs et des formes d’expertise, qui
permettent d’avancer concrètement vers l’objectif de
l’utilisateurs-acteur, c’est-à-dire d’un usage conscient, créatif et
innovant généralisé des outils logiciels.

L’intelligence sociale expérimentée ces dernières années par les
différents sujets sociaux qui peuplent le cyberspace doit désormais,
d’une certaine façon, trouver les moyens de dépasser les limites d’un
cadre micro-communautaire – sorte d’enfermement affinitaire – pour
circuler et se diffuser, pour investir des niveaux « de masse », pour
conquérir des ouvertures en direction de l’ensemble des utilisateurs
aujourd’hui prisonniers de la consommation de produits propriétaires[[Il
s’agit ici de logiciels « propriétaires », c’est-à-dire disponibles
uniquement sous forme de binaires exécutables, sans possibilité
d’accéder au code source pour le modifier., non tant pas « commodité
», que parce que la maîtrise de la « technique » constitue aujourd’hui
un mur qui leur semble infranchissable.

Cela signifie concrètement que les pratiques de coopération productive,
qui ont fait leurs preuves sur le strict terrain du logiciel, peuvent et
doivent êtres étendus à d’autres secteurs cognitifs, mais surtout à
d’autres sujets sociaux. Au-delà du slogan, ce dont il est question
c’est d’inventer maintenant des instances matérielles et sociales qui
permettent une circulation effective des savoirs techniques, des usages
particuliers et des innovations pratiques. Créer des instances d’accès
public à l’expertise, ou plutôt à des formes d’expertise, qui
s’inscrivent dans une pleine utilisation des potentialités du Logiciel
Libre et de l’Internet, pour donner à chaque utilisateur la possibilité
d’accéder au « code source » des techno-sciences de la communication.

Un projet qui est, d’abord, celui de potentialiser des ressources
existantes. Tout d’abord, l’expérience accumulée par les serveurs
alternatifs, par les sites spécialisés et les groupes d’utilisateurs,
par le circuit des mailing lists et des newsgroups, mais aussi par le
parcours personnel de nombreux internautes et utilisateurs de logiciels
libres, qui constituent un véritable gisement de richesses cognitives.
Ensuite, les possibilités offertes aujourd’hui par l’articulation entre
les bases de données et le Web (en particulier grâce à des langages de
script comme Perl ou PHP) pour construire des systèmes ouverts, souples, communicants et décentralisés de circulation et d’échange de données.

Il est donc envisageable, à très brève échéance, de concevoir un
agencement de moyens et de volontés qui autoriseraient une circulation
productive des savoirs techno-scientifiques – sous la forme de
tutoriaux, de manuels, de fichiers de configuration ou de récit – hors
des circuits académiques de l’apprentissage et/ou des parcours
individualisés d’initiation, comme contribution (même minime) à la
constitution réelle de cette intelligence collective dont l’Internet et
le logiciel libre nous ont fait savourer l’ivresse.

Copyright © 2000 Aris Papathéodorou. Les copies conformes et versions
intégrales de cet article sont autorisées sur tout support pour peu que
cette notice soit préservée.

Papatheodorou Aris

Graphiste, à qui l'on doit la première maquette de Multitudes. Infatigable animateur de Samizdat.net, projet de médias alternatifs sur Internet ( HYPERLINK "http://www.samizdat.net/" http://www.samizdat.net/)