Le jeudi 9 décembre 1999 la société VA-Linux [[ VA-Linux est une société spécialisée dans les solutions informatiques pour les entreprises à base de logiciel libre http://www.valinux.com. a fait son entrée en bourse au Nasdaq, le marché public des nouvelles technologies. Les actions VA-Linux, proposées en ouverture à 30 $, valaient en fin de session 239,25$. Une hausse record (698 % en une seule séance) pour une introduction en bourse aux Etats-Unis, mais surtout la première fois qu’en pareille occasion des actions terminent la séance au-dessus de la barre des 200$.
Au-delà de l’anecdote ces faits méritent d’être interrogés. En effet, l’engouement soudain des milieux boursiers pour ce qui n’était, jusqu’à peu de temps encore, qu’un secteur somme toute marginal de la production de logiciel, n’est-t-il finalement qu’un produit de l’idéologie américaine de la new economy, la croyance dans la reconquête du paradis perdu de la valorisation grâce aux “nouvelles technologies” de la communication et de l’immatériel ? Le capitalisme financier cède-t-il en cela à une simple mode passagère dans l’espoir de glaner quelques profits faciles et rapides ? Ou bien est-ce là le signe que le secteur du logiciel libre – dont le système GNU/Linux est la locomotive -, après avoir, contre toute attente, augmenté spectaculairement le nombre de ses utilisateurs, s’impose de fait aujourd’hui aussi à l’ensemble de l’économie-monde ? Un des paradoxes, et non des moindres, de cette situation réside précisement dans l’émergence au sein même de l’économie capitaliste d’un nouveau modèle productif – celui du “logiciel libre” – qui se construit, d’une part autour d’un rejet de l’appropriation privée des sources de l’innovation et de la production immatérielle et, surtout, un cycle de production totalement coopératif.
C’est la nature et les modalités de cette coopération productive, à plus d’un titre exceptionnelle, qu’il nous intéresse de saisir. En effet, si l’on sort d’une simple interprétation idéologique qui ne verrait là qu’une pure (et traditionnelle) contradiction entre une “alternative non-marchande” et la puissance récupératrice du marché, nous pouvons alors lire dans l’émergence du modèle productif du logiciel libre, dans ses contradictions et dans les enjeux qui se nouent autour de son devenir, non seulement des éléments d’interprétation sur le capitalisme post-industriel, mais surtout des indications sur les enjeux politiques qui s’y dessinent, bien au-delà du seul secteur informatique. Mais, pour comprendre ce qui se trame aujourd’hui, il nous semble qu’il faut, avant toute chose, reparcourir une série de processus de constitution de savoirs, d’aggrégations communautaires et d’innovations techno-scientifiques.
La naissance d’Unix, une véritable révolution logicielle
L’informatique – née dans la continuité de la compétition technologique de la Seconde Guerre Mondiale et développée sous l’aiguillon belliqueux de la Guerre Froide – n’en est encore, au début des années soixante-dix, qu’à l’ère quasi-expérimentale d’une technologie de pointe rare et coûteuse. Les ordinateurs sont principalement des super-calculateurs imposants, à l’utilisation délicate et parfois incertaine et surtout difficilement capables de communiquer entre eux. Un univers particulièrement éclaté, à la limite de l’autisme, où chaque modèle de machine était proposé par les fabricants avec son propre système, ses propres logiciels, son propre langage de programmation, mais aussi où les utilisateurs eux-mêmes – dont les cercles restreints de programmeurs-pionniers que l’on commence à désigner sous le vocable de hackers – préféraient souvent tout simplement “produire” leur propre système et leurs propres langages de programmation, adaptés à leurs besoins spécifiques…
C’est dans ce contexte que voit le jour un nouveau système d’exploitation, Unix, qui vient radicalement bouleverser le monde de l’informatique.
D’après une légende, le patron d’AT&T, lassé des nombreux problèmes d’incompatibilité entre les différents traitements de textes utilisés à l’époque, aurait ouvert une importante ligne de crédit pour tenter de résoudre ce casse tête permanent. Ken Thomson, expert en matière de systèmes qui vient des laboratoires, et Dennis Ritchie, l’inventeur du langage de programmation C, s’attellent à la tâche. Rapidement ils mettent en évidence que l’enjeu réel n’est pas tant de rendre compatibles les logiciels de traitement de texte avec les différentes architectures matérielles, que de rendre le système d’exploitation lui-même “portable” sur les différents types de machines. Pour eux l’évolution du matériel informatique, qui a vu l’apparition des premiers mini-ordinateurs, tout comme les réels progrès réalisés en matière de programmation, rendent possible et nécessaire la conception d’un système d’exploitation complètement nouveau contenant comme qualité intrinsèque la possibilité de la coopération.
Le projet Unix, initié en 1971, s’impose dans une large mesure à partir de 1974, année où il est porté avec succès sur plusieurs modèles d’ordinateurs différents sur lesquels il fonctionne quasi à l’identique. Le système Unix se présente donc comme un agencement d’outils logiciels conçus pour se combiner utilement les uns aux autres et constituer ainsi un “environnement logiciel commun”. Il s’impose rapidement par ses qualités nouvelles : une simplification pour l’utilisateur de la structure logique du langage de programmation, une conception modulaire du système de façon à en accroître les possibilités d’adaptation (par exemple sur différentes configurations matérielles). Et surtout, Unix est le premier système d’exploitation multi-utilisateurs et multi-tâches, reposant sur le respect de standards ouverts.
Le laboratoire d’intelligence collective de Berkeley
L’intérêt de la communauté universitaire pour le système Unix se cristallise particulièrement à l’Université de Berkeley, en Californie. En 1974 un groupe de chercheurs et d’étudiants en informatique y a fait l’acquisition de l’Unix de AT&T. L’entreprise leur a cédé pour une somme raisonnable le code source du système [[ Compte tenu de la diversité du hardware il était courant à l’époque pour les entreprise de mettre à disposition le code source des programmes ou du système (c’est-à-dire le “secret de fabrication”) sans quoi il aurait été proprement impossible de les adapter et de les faire tourner.. L’intérêt pour l’université, qui ne possède encore que de gros systèmes partagés entre plusieurs départements, est d’équiper chacun d’entre eux avec des mini-ordinateurs sous Unix, plus appropriés et plus souples d’utilisation.
Mais le système de AT&T nécessite, pour fonctionner correctement sur les machines de Berkeley, plusieurs améliorations et adaptations qu’apporteront en particulier deux jeunes étudiants en informatique, Chuck Halley et Bill Joy, avec l’aide de Ken Thompson lui-même. De ce travail – structuré autour d’une petite équipe de pionniers – sortira, début 1977, la Berkeley Software Distribution (BSD), une version du système Unix améliorée par les hackers de l’Université de Berkeley. Le système BSD, qui connaît un franc succès dans les équipes universitaires des quatre coins du monde, sera ensuite régulièrement mis à jour les années suivantes grâce aux multiples contributions et remarques apportées par ses utilisateurs eux-mêmes.
Très rapidement deux versions d’Unix, mais surtout deux cultures Unix, vont ainsi se côtoyer, puis peu à peu s’opposer. Celle des Unix System Labs d’AT&T d’un côté et celle du Computer Systems Research Group (CSRG) de Berkeley de l’autre ; les mécanismes de l’innovation d’entreprise d’un côté ; le processus coopératif de l’innovation au sein d’une communauté (même restreinte) de l’autre. Le succès de l’Unix BSD pose bientôt problème à AT&T qui, en 1992, traîne le CSRG devant les tribunaux pour avoir outrepassé les termes de la licence accordée et rendu public des “secrets industriels”. Ce sera le début d’une longue bataille juridique qui ne prendra fin qu’en 1994 avec la vente par AT&T des Unix System Labs à la société Novell qui s’empresse de trouver un compromis. Le projet BSD ne survivra cependant pas à l’aventure judiciaire. L’accord trouvé alors permet tout de même de sortir une ultime version du système BSD (dite 4.4BSD Lite), débarrassée de toute trace de code appartenant à AT&T et sous licence de “logiciel libre” [[Pour un récit détaillé de l’aventure de l’Unix BSD, voir l’article de Marshall McKusick, Deux décennies d’Unix Berkeley. De la version AT&T à la Version libre, in Tribune libre. Ténors de l’informatique libre, Editions O’ Reilly, 1999. Une version intégrale en ligne est disponible en version hypertexte sur le site de l’éditeur français http://www.editions-oreilly.fr/catalogue/tribune-libre.html .
Le coup d’arrêt porté au développement de l’Unix BSD par l’épopée judiciaire du copyright marque la fin d’une époque. L’informatique est passée de l’ère des pionniers à celle de la production industrielle du marché. Nombre de hackers historiques ont quitté les laboratoires pour créer leur propre entreprise ou s’intégrer dans les majors du secteur. La société Sun est, par exemple, directement issue du vivier de l’Université de Berkeley où fut conçue la version BSD de l’Unix.
Cette situation a principalement deux effets. Tout d’abord de conduire à une véritable balkanisation des différents systèmes à base d’Unix, jusque dans les différentes tentatives de relancer le projet BSD en dehors du cadre universitaire (NetBSD, FreeBSD, OpenBSD). Chacun développant ses propres variantes, ses propres implémentations, au détriment la plupart du temps de la compatibilité. Ensuite, d’emprisonner le développement informatique dans ce qui sera défini comme “système propriétaire”, c’est-à-dire la stricte application par les entreprises du principe de propriété privée sur toute production logicielle qui exclut ainsi toute publicité du code et donc toute participation des utilisateurs à son développement. Ce qui en d’autres termes aboutit à emprisonner toute innovation au sein d’un produit fini.
Un besoin non satisfait d’innovation et de liberté
Anticipant sur une telle impasse, dès 1984, Richard M. Stallman devait lancer le Mouvement du Logiciel libre (Free Software Foundation, FSF) avec l’objectif politique de s’opposer à l’appropriation privée de l’intelligence logicielle par les entreprises du secteur. Mais qu’est-ce, justement, qu’un logiciel libre ? Nous pouvons dire qu’un logiciel est libre si “vous avez la liberté de l’exécuter, pour quelque motif que ce soit ; vous avez la liberté de modifier le programme afin qu’il corresponde mieux à vos besoins (dans la pratique, pour que cette liberté prenne effet, il vous faut pouvoir accéder au code source, puisqu’opérer des modifications au sein d’un programme dont on ne dispose pas du code source est un exercice extrêmement difficile) ; vous disposez de la liberté d’en redistribuer des copies, que ce soit gratuitement ou contre une somme d’argent ; vous avez la liberté de distribuer des versions modifiées du programme, afin que la communauté puisse bénéficier de vos améliorations” [[Richard Stallman, Le système d’exploitation du projet GNU et le mouvement du logiciel libre, in Tribune libre, op.cit..
Avec la constitution de la FSF et du projet GNU [[Constitué suivant le principe de l’acronyme récursif, GNU signifie GNU not Unix. Clin d’oeil aux temps où le copyright apposé sur le terme Unix imposait aux systèmes de type Unix de se désigner comme des Unix like ou comme Un*x., Stallman et d’autres hackers s’attaquent à l’objectif de construire un système d’exploitation de type Unix entièrement fondé sur du logiciel libre… “Un système d’exploitation ouvre de nombreuses portes ; sans système, l’ordinateur est inexploitable. Un système d’exploitation libre rendrait à nouveau possible une communauté de hackers, travaillant en mode coopératif – et tout un chacun serait invité à y participer. Et tout un chacun pourrait utiliser un ordinateur sans devoir adhérer à une conspiration visant à priver ses amis des logiciels qu’il utilise” [[Richard Stallman, op.cit.. Une tâche colossale qui passe d’abord par le développement de logiciels libres (sous le label GNU) correspondant aux fonctions essentielles nécessitées par un système d’exploitation (compilateurs, éditeurs de texte, etc.). Mais aussi par une formalisation du statut du logiciel libre de façon à ce que ce qui est développé comme du code libre ne puisse être ensuite transformé en “logiciel propriétaire”, privant les utilisateurs de toute liberté d’utilisation. Ce sera la création du principe du copyleft – par opposition au copyright – et surtout de sa mise en oeuvre pour les logiciels sous la forme de la GNU General Public Licence (GPL). Celle-ci pose dans un même temps la liberté d’utilisation et de modification du code sous GPL tout en imposant que tout programme qui en intégrerait tout ou partie doit impérativement être lui-même un logiciel libre [[Une version française du texte de la Licence publique générale du GNU est disponible sur le site de l’association April http://www.april.org
L’Internet, la structure qui connecte
Il n’est pas possible de parler de ce qui s’est passé dans le monde de l’informatique et du logiciel sans évoquer le rôle déterminant de l’Internet. Dès l’expérimentation des premiers réseaux télématiques, à la fin des années cinquante sous l’égide de la recherche militaire avancée (ARPA), cette forme de communication séduit les chercheurs et les informaticiens par ses potentialités en matière d’échanges de données de façon horizontale et de coopération à distance.
Ce n’est sans doute pas un hasard d’ailleurs si le système Unix inclut d’emblée ses propres protocoles réseau (UUCP et IP) qui permettent à deux ordinateurs tournant sous Unix de s’échanger des messages électroniques à travers des lignes téléphoniques ordinaires. Les machines Unix formeront bientôt un réseau dans le réseau d’où sortira en 1980 le réseau Usenet (celui des newsgroups, les forums électroniques, aujourd’hui partie intégrante de l’Internet) qui dépassera rapidement en ampleur l’ARPANet [[L’ARPANet est le réseau électronique expérimental mis en place par l’Advanced Research Project Agency (ARPA), dépendance du Département de la défense américain. De la fusion de l’ARPANet entre autre avec les réseaux universitaires et l’Usenet naîtra à proprement parler l’Internet..
Ce système de relations sociales à distance [[Sur la nature des relations humaines en réseau, voir Jean-Louis Weissberg, Présence à distance. Déplacement virtuel et réseaux numériques, L’Harmattan, 1999., à travers l’écriture transportée d’un ordinateur à l’autre, ne pouvait pas rester confiné au monde de la recherche. Les chercheurs eux-mêmes sont souvent jeunes et riches d’intérêts divers, de la politique à la musique, de la philosophie zen au sport. Graduellement l’utilisation du réseau commence à “dévier” de sa fonction première, qui est de relier les superordinateurs des laboratoires de recherche, et se créent ainsi des aires de discussions dédiées aux arguments les plus divers.
Le réseau devient un instrument autonome aux mains de communautés de chercheurs : instrument qui fonctionne comme machine de guerre pour la circulation des procès cognitifs mais aussi comme machine subjective pour la constitution d’espaces communautaires virtuels. Ainsi ce qui circule via les lignes téléphoniques (par le mail, dans les newsgroups) est bien plus qu’une somme de simples données académiques : la communication électronique devient le vecteur d’agrégation de microcommunautés d’intérêts, de coopération sur des projets communs. De fait le système GNU/Linux arrive à un moment où la coopération est rendue possible à grande échelle par le Net. On peut même dire que c’est d’une certaine façon la première production “palpable” de l’Internet, c’est-à-dire la première fois que le réseau des réseaux matérialise autre chose que lui-même.
Le noyau venu du froid
Au début des années quatre-vingt-dix un jeune étudiant finlandais, Linus Torvalds, crée la surprise en proposant presque par hasard un nouveau système d’exploitation construit autour d’un noyau [[Le noyau est pratiquement le coeur d’un système de type Unix, l’élément autour duquel s’agencent les modules, les commandes, les bibliothèques et les logiciels pour composer un système d’exploitation dans son ensemble. Le terme Linux désigne en fait le noyau d’un système appelé GNU/Linux. bientôt baptisé Linux. Linus désirait tout simplement pouvoir exécuter chez lui, sur son propre PC, les programmes qu’il réalisait ou utilisait dans le cadre de ses études. Comme son université était équipée d’ordinateurs de type Unix, Linus s’est donc fixé pour objectif de créer un système Unix libre de droits qui puisse tourner sur une architecture matérielle de type Intel (les PC), les micro-ordinateurs les plus courants.
En fait, à ce moment-là, la tâche n’était pas aussi vaste qu’il y paraît. Le projet GNU de la FSF s’était déjà occupé de redévelopper la plupart des commandes Unix ainsi qu’un certain nombre de logiciels déterminants comme le compilateur gcc. Un Unix libre, différent du système BSD, était donc presque réalisé mais la FSF n’avait pas correctement anticipé le formidable développement du PC. Les programmes du GNU étaient en fait installés par des administrateurs système soucieux de performances et de portabilité sur les minis ordinateurs tournant sous Unix. L’idée géniale de Linus sera de se focaliser sur la conception et la réalisation d’un noyau capable d’interagir avec les programmes du GNU en portant l’ensemble sur les ordinateurs personnels.
Eric S. Raymond relate ainsi sa découverte de GNU/Linux : “La rencontre avec Linux fut un choc. J’avais beau avoir baroudé de nombreuses années dans la culture des hackers, je traînais toujours l’idée reçue que des hackers amateurs, même très doués, ne pourraient jamais rassembler suffisamment de ressources ou de talent pour produire un système d’exploitation multitâches utilisable […. Observer cette débauche de code merveilleux étalé sous mes yeux fut une expérience bien plus puissante que de me contenter de savoir, d’un point de vue uniquement intellectuel, que toutes les portions existaient probablement déjà quelque part. C’est comme si je m’étais baladé au milieu de piles de pièces de rechanges dépareillées pendant des années pour me retrouver face aux mêmes pièces, assemblées sous la forme d’une Ferrari rouge et rutilante, portières ouvertes, les clefs se balançant sur le contact, et le moteur ronronnant de promesses de puissance… Les traditions des hackers, que j’avais observées pendant vingt ans, semblaient soudain prendre vie d’une nouvelle et vibrante manière” [[Eric Steven Raymond, La revanche des hackers, in Tribune libre, op.cit..
Conçu de façon presque confidentielle en 1990, le système GNU/Linux se révèle vraiment en 1993. En un rien de temps la contagion se répand dans ce qui reste des communautés hackers dispersées dans le monde et dans la jeune communauté de nouveaux utilisateurs de PC, qui passent ainsi du bricolage sous MS-Dos à la programmation sous Linux. Certains ont parlé à propos de Linux de “summum du hack”. Derrière l’emphase du propos, il y a le constat qu’effectivement le système qui s’est construit autour du noyau Linux potentialise l’ensemble du patrimoine de code accumulé pendant deux décennies par la communauté dans son ensemble. Il se révèle être le système d’exploitation le plus portable puisqu’il tourne non seulement sur des architectures Intel, mais aussi PowerPC (Macintosh, IBM, Amiga), Sparc (Sun). GNU/Linux est également une plate-forme de choix pour les systèmes dits embarqués : dans quelques années des équipements aussi divers que des autoradios, des machines à laver ou des cafetières auront ce système à bord.
Le procès de développement du logiciel libre
La véritable innovation du système GNU/Linux ne réside pas en effet dans sa seule dimension “technologique” (le noyau portable) mais dans les mécanismes sociaux de production de l’innovation qui se mettent en jeu autour de lui. En effet, une des forces majeures de ce système d’exploitation – qui peut en expliquer largement le succès actuel – est non seulement son fort contenu d’innovation, mais surtout d’avoir d’abord fondé celle-ci sur le potentiel créatif existant du logiciel libre, et ensuite sur l’utilisation du réseau Internet comme lieu où s’élaborent les nouveaux projets et où se met en oeuvre une coopération massive et ouverte.
Reprenant dans une large mesure les méthodes de travail “communautaire” misent en oeuvre un temps autour de la branche BSD d’Unix, ou du Massachusetts Institut of Technology (MIT), le développement du code n’est plus ainsi un acte isolé, que ce soit comme activité personnelle ou dans un cadre d’entreprise, mais un véritable processus de coopération où le rapport production/utilisation tend à se confondre. Les premiers utilisateurs du système sont les développeurs eux-mêmes ; tout comme on pourrait dire que les premiers développeurs sont les utilisateurs eux-mêmes.
Le processus de création du logiciel libre – contrairement au “logiciel propriétaire” – est quelque chose qui échappe ainsi à toute approche marketing, se fondant plutôt sur la notion d’utilité sociale. Quelqu’un utilise un logiciel et constate que celui-ci ne correspond pas exactement à ses besoins, soit parce que des fonctionnalités sont manquantes, soit parce que sa conception ne le satisfait pas. Il fait alors l’inventaire des logiciels existants pour voir s’il ne peut pas utiliser un autre produit. Si ce n’est pas le cas, il peut soit chercher à modifier le code source d’un logiciel déjà développé, soit créer un logiciel entièrement nouveau, et dans ce cas faire appel, via une mailing list ou un newsgroup, à tous ceux qui expriment le même besoin pour qu’ils unissent leurs forces pour donner corps à un nouveau logiciel, généralement en reprenant du code libre existant.
La participation à un projet peut ainsi revêtir de multiples formes. Un utilisateur aguerri peut fournir de la documentation ou bien encore soumettre une modification du code – appelée “patch” – au “mainteneur” du logiciel [[Chaque logiciel libre a une (parfois deux) personne qui assume le rôle de “maintien” du code, ce qui est évidemment crucial. Il doit sans cesse ajouter de nouvelles fonctionnalités au logiciel, tout en veillant à la qualité et à la stabilité de celui-ci. Il doit surtout répondre aux demandes des utilisateurs en incorporant des ajouts ou des modifications proposés par ces derniers. Plus le projet a de l’importance, plus il évolue vers des fonctions de coordination, voire d’arbitrage, les conflits entre co-développeurs étant assez fréquents. C’est actuellement, par exemple, la fonction du créateur de Linux, Linus Torvalds, dont l’autorité est incontestable sur le développement du noyau.. Mais l’utilisateur lambda peut aussi tout simplement exprimer son opinion sur tel ou tel problème particulier non anticipé par les développeurs, ou corriger un bogue mineur. La capacité des auteurs de logiciels libres à faire appel à la communauté à la fois pour proposer des améliorations et pour renforcer l’équipe de développement, est un facteur déterminant. Et, de fait, on constate que plus le projet est ouvert, plus les développeurs sont soumis à la pression de la communauté pour faire évoluer leur “produit” et pour faire face aux aléas des inévitables départs de membres de l’équipe.
Dans son texte devenu célèbre, La Cathédrale et le Bazar [[Une version française de ce texte est disponible sur le site de Linux France : http://www.linux-france.org/article/these/cathedrale-bazar/cathedrale-bazar.html , Eric S. Raymond a proposé une dénomination de ce modèle qu’il appelle le “bazar”, en opposition à la “cathédrale”, le modèle commercial traditionnel de développement. Il remarque que les sources du code étant librement téléchargeables, la correction des bogues s’opère à un rythme soutenu. Selon lui, ceci expliquant pourquoi ces logiciels sont généralement fiables. Dans le cycle de vie traditionnel du logiciel, la phase de test représente souvent plus du tiers du temps de travail consacré à un produit. Au contraire, dans l’économie du logiciel libre, ce sont les utilisateurs qui se chargent de ce type de tâches et qui proposent des corrections.
Le type d’organisation décrit par Raymond s’est depuis affiné. La coopération en réseau abolissant les frontières, des programmeurs de tous les pays et de tous les milieux sont invités à participer aux projets les plus divers. On passe là à une autre échelle, loin des modèles de la production entrepreneuriale classique. Conscientes des risques de déviation du modèle du “bazar” vers un modèle de type “conseil municipal” (à force de causer, on ne fait plus rien) [[Voir le texte d’Alan Cox, un des principaux développeurs du noyau Linux, La cathédrale, le bazar et le conseil municipal. Disponible sur le site Linux France http://www.linux-france.org/article/these/conseil-municipal/bazaar_fr.html , les communautés ont répondu de manière pragmatique par l’adoption de procédures techniques qui modifient les structures organisationnelles : le développement se fait en réseau à l’aide d’outils qui automatisent les mises à jour fastidieuses du code source ; font leur apparition des sites webs sophistiqués dédiés au développement en groupe et à la cartographie des bogues, un des plus intéressants étant celui du projet Gnome (logiciels de gestionnaire de bureau entièrement libres).
Très séduisant, mais dévoreur de temps, comment ce modèle pourra-t-il résister aux coups de boutoir des grosses entreprises informatiques qui, fait nouveau depuis 1998, investissent massivement dans la fourniture des logiciels tournant sur GNU/Linux ? Comment, d’autre part, assurer une rémunération correcte des développeurs de logiciels libres ? Enfin la communauté qui fait évoluer ce système est-elle prémunie contre une prise de contrôle extérieure ?
Business is business
Le système GNU/Linux est devenu d’ores et déjà une “cible” privilégiée des éditeurs de logiciels. IBM, Oracle, Inprise (anciennement Borland), Sun (inventeur du langage Java), sans oublier le précurseur, Netscape et tout récemment Matra, proposent le portage de leurs produits de référence sous GNU/Linux. L’important est ici de souligner que ces éditeurs ont choisi des stratégies différentes, voire opposées, de conquête de ce marché qui, il faut le rappeler, n’est en rien “captif”.
La plupart des versions GNU/Linux des logiciels proposés par ces sociétés sont gratuites. On peut télécharger librement le produit complet sur l’Internet ou, à tout le moins, une version d’entrée de gamme tout à fait correcte [[Le cas de la suite bureautique Staroffice est assez emblématique : son utilisation est devenue totalement libre à la suite de rachat par Sun de l’entreprise qui l’avait développée… Sans pour autant que les sources soient disponibles. La mise à disposition du code source, par contre, heurte la conception traditionnelle que se font les “décideurs” de l’économie du secteur : les secrets de fabrication doivent être bien gardés alors même que les profits ne se font plus sur la vente de logiciels (à l’exception notable de Microsoft) mais sur la fourniture de services pour les entreprises. La pression de la communauté des utilisateurs de logiciels libres est pourtant assez forte, c’est pourquoi IBM a annoncé que le code de sa base de données DB2 serait disponible gratuitement.
Le pari le plus audacieux a été pris par la société Netscape à l’instigation d’Eric S. Raymond. Confrontée à de sérieuses pertes de parts de marché, Netscape a décidé de livrer à la communauté des développeurs le code de son logiciel de navigation sur le web, rebaptisé pour l’occasion Mozilla. Netscape distribue son produit sous une nouvelle licence, la NPL (Netscape Public Licence) car, selon E. Raymond, les licences GPL et BSD ne pouvaient pas s’appliquer ici, le code de mozilla comportant des parties développées par des entreprises tierces toujours détentrices du copyright.
Est-ce à dire qu’aujourd’hui, comme semblent le penser les tenants de l’Open Source, les structures et les modes d’organisation prônés par la Free Software Foundation constituent une entrave au développement de linux en servant de repoussoir à l’investissement des éditeurs de logiciels ? Nous ne le pensons pas. Au contraire, nombre d’entreprises distribuent depuis un certains temps déjà leurs produits sous licence GPL. Le contrat est clair : l’entreprise assure la coordination du développement du produit et en échange la communauté est assurée que le code du logiciel sera toujours disponible et adaptable. C’est le cas de la société Abisoft qui développe un logiciel de traitement de texte, Abiword. Ainsi que de la société Cygnus Solutions – récemment rachetée par Red Hat – qui assure le développement du compilateur egcs, successeur de gcc, adopté notamment par la Nasa. Le logiciel libre sert souvent de vecteur de reconnaissance pour l’entreprise qui gagne de l’argent autrement (vente de CD, manuels, conseils, etc.). Le modèle américain des startups permet de lever des fonds qui en retour vont servir à financer le développement de logiciels libres. La société parisienne Mandrakesoft emploie ainsi des programmeurs dont la tâche est de participer à la réalisation d’une suite bureautique entièrement sous licence GPL (koffice). Le développement de ce logiciel n’est pas placé sous la responsabilité de Mandrakesoft, qui met simplement à disposition du projet des ressources humaines et matérielles. Si ce type de coopération n’est pas fondamentalement nouveau – le mode graphique d’Unix, XWindow, a été développé par un consortium regroupant les principaux vendeurs -, l’originalité réside dans le fait que les projets associent des développeurs salariés mais aussi des bénévoles. Ces derniers y trouvent d’ailleurs largement leur compte : outre la satisfaction personnelle et la notoriété dans la communauté, la participation au développement de logiciel libre est un atout indéniable à mentionner sur un CV. Ajoutons enfin que nombres de projets de fin d’études informatiques concernent le système GNU/Linux.
Au total, Bob Young, le patron de Red Hat, estime à 70 % la proportion des développeurs GNU/Linux rémunérés [[Interview dans Langages & Systèmes, novembre 1999.. Si ce pourcentage paraît quelque peu excessif, il convient néanmoins de considérer que beaucoup de personnes travaillant dans l’enseignement supérieur et la recherche, participent à l’amélioration de GNU/Linux sur leur lieu de travail : le logiciel libre bénéficie donc d’un financement indirect très important.
Le contre-pouvoir des utilisateurs
Le devenir du système GNU/Linux suscite déjà beaucoup d’interrogations et d’inquiétudes, en particulier sur le risque supposé d’une “récupération par le marché”. Trois raisons principales nous semblent expliquer en quoi ce système offre de sérieuses garanties d’indépendance.
La première est d’ordre juridique. Le système est distribué sous une licence GPL. Cela veut dire, comme on l’a déjà vu, que tout produit qui contient une partie, même infime, de code sous GPL ne peut être distribué lui-même que sous licence GPL. Comme le coeur du système a été réalisé par des centaines de programmeurs, cela signifie qu’ils devraient tous donner leur accord à un éventuel changement de statut juridique. Même si la reconnaissance légale de la GPL n’est pas évidente, cela bloque toute tentative de captation. D’autant plus que la marque “Linux” – qui est en soit un non-sens – a été déposée par un groupe qui défend farouchement l’identité du système : Linus Torvalds en est pour l’instant le dépositaire.
La deuxième raison est d’ordre technique. Contrairement à Windows ou à MacOS (avant la future version X), le système GNU/Linux – hérité d’Unix – est construit sous forme de couches successives reposant sur des normes et des standards ouverts. On a le noyau, la couche réseau, les commandes développées par le GNU, la couche de base graphique dont s’occupe le consortium XFree, les innombrables “gestionnaires de fenêtres” (de Fvwm à Enlightenment en passant par Window Maker et AfterStep), les logiciels de bureau (Gnome, KDE, etc.) et enfin toutes les applications. Un ensemble complexe dont évidemment aucune entreprise et aucun organisme ne sont propriétaires.
La troisième raison est tout simplement politique. Les utilisateurs sont attachés à leur système, la disponibilité et la gratuité du code sont pour eux un véritable engagement, même si la variable “politique” n’est qu’exceptionnellement mise en avant. Pour beaucoup d’entre eux, le logiciel libre est un prolongement de l’esprit de la contre-culture des dernières décennies [[Richard Stalllman lui-même fut, au début des années 70, alors qu’il était étudiant, un des animateurs du Free Speech Movement sur le campus de l’Université de Berkeley comme il le racconte dans une interview au magazine italien Decoder.. En admettant qu’un prédateur arrive à prendre le contrôle du noyau – on voit mal comment -, il existe des systèmes également libres et également fondés sur Unix comme la famille des BSD hérités de la branche Berkeley (FreeBSD, OpenBSD et NetBSD) ou comme Hurd, le système propre du GNU, qui sont à même de faire tourner les programmes “Linux” dans les mêmes conditions. La communauté quitterait alors le navire avec armes et bagages et au bout d’un an tout le monde aurait oublié Linux…
Pour ne pas conclure
Le modèle du logiciel libre bouleverse la conception que l’on pouvait avoir de la coopération et de l’innovation. Force est de constater que l’on se trouve pour la première fois en présence d’une coopération massive, planétaire, hautement valorisable, assurée conjointement par des entreprises, certes, mais surtout par un ensemble de sujets autonomes, à la fois au coeur du système capitaliste, mais aussi en dehors, voire au-delà.
Traditionnellement, il était convenu de dire avec Schumpeter que l’entrepreneur était le moteur de l’innovation, tandis que le marxisme orthodoxe mettait de son côté l’accent sur le fait que le “progrès social” était le fruit des luttes de masse. L’opéraisme italien opèrera un saut qualitatif en soutenant que c’st la lutte de classe qui détermine le développement capitaliste : l’innovation est alors posée à la fois comme un enjeu de la lutte, et comme le produit du rapport de force entre capital et classe ouvrière [[Raniero Panzieri, Capitalisme et machinisme, in Luttes ouvrières et capitalisme d’aujourd’hui, Collection “Cahiers libres”, éditions François Maspero, 1968. Il n’en reste pas moins que la coopération continue dans cette approche à être conçue comme exclusivement mise en oeuvre à l’intérieur de la sphère de la production capitaliste.
Le développement du procès coopératif de production du logiciel libre autour du système GNU/Linux – avec son fort contenu d’innovation -, sans pour autant se faire hors de la dynamique de production capitaliste, met en oeuvre des forces sociales qui se déterminent dans une large mesure en dehors des seuls mécanismes de l’économie. La circulation des savoirs, l’identification collective à une éthique du partage cognitif, les pratiques de création collectives en réseau, ou les tentatives de “moralisation” du rapport marchand, etc. suggèrent bien que nous sommes en présence de sujets sociaux hybrides, acteurs d’une formidable envolée productive, mais aussi acteurs d’une véritable mobilisation pour la conquête de nouveaux droits.
Nous croyons, avec Manuel Castells, que “le paradigme des technologies de l’information fournit les bases matérielles de son extension à la structure sociale toute entière” [[Manuel Castels, La société en réseau, Fayard, 1998.. Un modèle de coopération sociale productive a émergé autour du logiciel libre : reste à savoir si celui-ci peut s’étendre à d’autres secteurs de la production immatérielle… et constituer un nouveau paradigme productif.
C’est autour de la nécessaire lecture politique de cette réalité qui prend forme, de sa tout aussi nécessaire interprétation en termes qui échappent aux seules catégories de l’économie politique et de l’idéologie, qu’il nous semble désormais nécessaire d’interpréter le “phénomène” GNU/Linux, ou plutôt ce procès de coopération sociale élargie qui s’est cristallisé autour des communautés de développeurs et d’utilisateurs de ce système informatique libre.
Copyright (C) 2000 Laurent Moineau et Aris Papathéodorou – Les copies conformes et versions intégrales de cet article sont autorisées sur tout support pour peu que cette notice soit préservée.