Vers un renouveau de l’économie politique

Anciens concepts et innovation théoriqueAu dix-huitième siècle, l’économie politique se constitue comme « science des richesses ». Mais la richesse dont nous parle l’économie politique est immédiatement enfermée dans un champ limité : la richesse est tout ce qui satisfait un besoin matériel et qui relève du marchand, la production des besoins constitutifs de la valeur d’usage étant exclue du champ de l’économique, ainsi que tout ce qui relève de l’échange non marchand. Sur quoi repose cette production de richesse en tant que surplus ?
Sur ce point, la théorie smithienne n’a jamais était démentie : cette production repose sur la division du travail retenue comme seule arme dans la lutte contre le temps et, comme corollaire, sur l’extension des marchés. Autrement dit, étant donné le « penchant naturel à l’échange », la division du travail, permise par l’extension des marchés, se développe et permet les gains de productivité sur lesquels repose la production du surplus. Sans jamais infirmer les postulats de la pensée classique, et en en approfondissant les fondements, l’économie, qui se construit en tant que « science » avec l’affirmation de la théorie néoclassique, délaissera l’analyse du processus d’accumulation pour se constituer comme théorie de l’équilibre de marché. Elle sera essentiellement théorie normative des marchés et des lois assurant les principes d’équité et d’efficience du système. Sous l’hypothèse d’un comportement individualiste, le sujet producteur ne souhaite pas travailler avec les autres ; autrement dit, la coopération est exclue et il ne reste que le marché pour coordonner l’action des agents, dont l’objectif ultime est un maximum individuel de plaisir.
Le présupposé théorique fondamental étant la rareté des ressources, le problème devient celui d’une allocation optimale de ces dernières. Sous l’hypothèse des rendements factoriels décroissants, il est démontré que le marché (théorique) de Concurrence Pure et Parfaite assure à la fois le respect d’un principe d’équité (dans la rémunération des ressources) et d’efficience (dans l’allocation de ces mêmes ressources). L’hypothèse de la décroissance des rendements n’est pas neutre du point de vue de la théorie de la répartition : c’est l’hypothèse nécessaire du principe paretien de l’optimum social et qui permet de maintenir une théorie de la répartition non conflictuelle fondée sur le principe de la productivité marginale des facteurs travail et capital. La dimension antagonisque que contient la répartition fonctionnelle du revenu, suivant Ricardo d’un côté et Marx de l’autre, est donc dépassée par une théorie de l’équité et de l’optimum social défini dans les termes d’un optimum paretien : à l’équilibre, plus personne ne peut améliorer sa situation sans nuire à celle d’au moins une autre personne.
Dans la mesure où tous les agents ont un même comportement et une même rationalité, et qu’ils agissent de manière isolée, les interactions et les problèmes de coordination ex-ante n’existent pas. La société est alors niée par la figure de l’agent unique. Ce sont là les fondements théoriques que l’on retrouve dans toute la littérature orthodoxe, jusqu’aux théories les plus récentes des cycles réels et de la croissance endogène développées depuis les années 1980. Néanmoins, des éléments importants de rupture peuvent être repérés au sein des nouvelles théories de la croissance et du changement technique. Pourquoi cette rupture ? En quoi cette rupture constitue-t-elle une innovation majeure au sein de la pensée économique ?

L’émergence des NTIC comme expression d’une mutation fondamentale dans la production de richesse

En juillet 1978, on pouvait lire dans la New York Times Book Reviewl’article de Solow, que le débat en économie figera sous l’appellation de « Paradoxe de Solow » : les ordinateurs sont partout sauf dans les statistiques de la productivité. L’une des réponses apportées (Freeman & Perez) consistait à considérer qu’une nouvelle révolution technologique se préparait, et qu’elle ne pouvait pas épanouir son potentiel de croissance du fait d’une « incohérence », d’un « décalage » entre technologies et institutions. Plus fondamentalement, ce sont l’éclatement de l’usine, la diffusion de formes inédites de coopération dans les interstices de l’espace construit par la firme fordiste, et le fait enfin que l’innovation échappe au contrôle de la grande entreprise, qui court-circuitent tous les principes de ce qui se voulait une « science dure » s’appuyant sur la puissance de l’outil mathématique. Comme le montre Philippe Breton dans son Histoire de l’informatique (1987) « Le micro-ordinateur est né d’un projet social formulé au début des années 1970 par un groupe radical américain, qui avait surtout comme souci la démocratisation de l’accès à l’information plutôt qu’un désir d’innovation technique. Toute l’affaire semble avoir commencé en 1970 à Berkeley, en Californie, en plein milieu de la crise du Cambodge… »
La révolution technologique des NTIC oppose la puissance créatrice et coopérative des forces sociales à la cohérence du modèle fordiste d’organisation du travail, qui se voulait scientifique et universel, et qui misait sur la massification-standardisation des besoins et des désirs, ainsi que sur la coopération entre les seules grandes firmes et l’Etat. Cette révolution fait émerger la culture, la communication, la production langagière, la production sociale de savoir, comme moyens de production et comme produits, tout ce que l’économie avait exclu de son champ d’investigation.
Comment l’économie politique peut-elle concevoir que cette révolution technologique ne soit pas née dans les départements de R&D des grandes entreprises informatiques et, de plus, le fait qu’elle ne soit pas née dans la perspective d’une innovation technique ? Ce n’est pas non plus l’entrepreneur-innovateur schumpeterien, mu par la logique d’un profit différentiel par rapport à ses concurrents, qui est à l’origine d’une innovation technologique majeure, telles les NTIC qui vont instrumenter des nouvelles formes de coopération sociale.
Comment un économiste pourrait-il admettre que la diffusion de l’informatique ne suive pas les lignes des pouvoirs hiérarchiques de la grande entreprise ou de l’Etat ? En fait, l’émergence des NTIC révèle une mutation profonde qui est sociale avant d’être technologique, et qui dépasse largement le champ technique pour concerner de manière bien plus globale la production sociale de richesse. Depuis les années 1980, la science économique a entrepris de se renouveler en combinant de manière originale des idées et des concepts jusque-là émiettés dans des champs séparés. Deux directions de recherche sont particulièrement intéressantes :
• La macroéconomie de la croissance endogène qui traite du capital humain et des externalités (voir encadrés 1 et 2).
• L’approche évolutionniste du changement technique qui conçoit l’innovation comme un processus social d’apprentissage créateur.
Pour pouvoir mesurer la portée du renouveau, il est important de rappeler quel était l’état de la science, et plus particulièrement, comment la croissance avait été traitée jusque-là.

Les théories de la croissance après Keynes

La théorie keynésienne comportait trois ruptures fondamentales : l’introduction du temps, le lien entre phénomènes réels et monétaires, et l’impossibilité de concevoir l’équilibre comme état naturel de l’économie. C’est sur ces bases que, dans les années quarante, l’économie politique posera les problèmes de la croissance. Sur le « fil du rasoir » (Harrod) n’est rien d’autre que la traduction, sur le long terme, de l’impossibilité d’assurer ex-ante l’égalité entre épargne et investissement.
En renouant avec la théorie classique de la croissance et de la répartition, Kaldor, Robinson et Pasinetti ont démontré qu’une croissance équilibrée est possible grâce à une modification de la répartition du revenu. Plus fondamentalement, ils démontrent que le taux de croissance d’une économie ne dépend que du taux d’accumulation, variable dont seuls les capitalistes disposent du contrôle. Toutefois, les néocambridgiens, dans une perspective keynésienne et kaleckienne qui se voulait critique de la pensée néoclassique et marginaliste, construisent une théorie de la croissance et de l’accumulation sans le capital. En ce sens, le capital y est réduit, in fine, à une masse d’argent, à un ensemble de moyens de production. La croissance reste ainsi, de fait, confiée à un progrès technique exogène considéré neutre, autrement dit, il ne modifie pas la répartition de la richesse, donc la nature du processus d’accumulation. In fine, le problème de la croissance, tel qu’il est posé jusqu’aux années 1980, n’est qu’un problème de croissance à l’équilibre. On maintient une vision matérielle de la richesse, dont les sources restent non expliquées par les modèles.
Ainsi, les différences avec le modèle néoclassique et postkeynesien de Solow ne sont que marginales, bien qu’on ne puisse pas nier leur importance. Chez Solow, c’est la parfaite substituabilité des facteurs de production et la flexibilité parfaite des prix qui assure l’équilibre de la croissance, croissance qui s’avère n’être rien d’autre que la reproduction, à l’infini dans le temps, de l’état présent des choses, une sorte de faux mouvement. Dans le modèle de Solow, la croissance n’est qu’un phénomène temporaire. Sous l’hypothèse des rendements décroissants – hypothèse nécessaire au maintien d’une théorie de l’efficience du marché et de l’équité de la répartition du revenu – la théorie économique ne peut tout simplement concevoir l’accroissement de la richesse autrement qu’en assumant une sphère non économique – celle de la science – qui produirait les sources des gains de productivité.
Avec Solow, l’économie a néanmoins découvert que le capital et le travail ne peuvent pas expliquer à eux seuls la croissance. Un résidu apparaît : ce résidu peut atteindre 80 % de la croissance. Autrement dit, le capital et le travail ne pourraient expliquer que 20 % de la croissance. Que retenir de tout cela ? L’économie politique renonce à expliquer comment on produit la richesse. Au reste, comment la théorie économique de la croissance aurait-elle pu concevoir la croissance en restant dans un monde maudit de rareté des ressources et des rendements décroissants ?

Les modèles de croissance endogène

Ce sont justement les rendements factoriels « non-décroissants » (la productivité marginale des facteurs capital et travail ne diminue pas en fonction de leur emploi croissant dans la production dès lors que leur qualité peut s’accroître et évoluer) et la non rareté des ressources (en particulier, c’est le travail qui, en tant que capital humain, devient une ressource reproductible et accumulable) qui sont au cœur des tentatives d’une nouvelle formulation des problèmes de la croissance dans les années 1980.
Comment ont été construits les modèles de croissance endogène? Le retour à Adam Smith semblait la seule voie possible, en incorporant les apports de Schumpeter, d’Arrow, de Kaldor et de Marshall. Quatre idées fondamentales sont alors intégrées dans le modèle de croissance équilibrée de Solow de 1956 : la division du travail est une source endogène de la prospérité (Smith), l’innovation est le moteur de la croissance (Schumpeter), l’innovation naît d’un processus d’apprentissage de learning by doing (Arrow), le progrès technique est une fonction de l’accumulation (Kaldor) et des externalités (Marshall) générées dans le temps par l’investissement. Ces théories ont alors été intégrées dans le modèle de Solow, tout en maintenant l’hypothèse de la capacité autorégulatrice du marché… bien que l’intervention de l’Etat soit affirmée comme souhaitable pour garantir les infrastructures nécessaires à la production, pour garantir la protection de la propriété intellectuelle, pour garantir également un développement adéquat du capital humain, mais aussi, d’une partie de la R&D.
Développés à partir du premier modèle présenté par Romer en 1986, les modèles de croissance endogène intègrent ainsi les concepts d’externalité, d’apprentissage et de capital humain, pour concevoir la possibilité d’un progrès technique endogène. Autrement dit, les sources du progrès technique permettant la croissance de la richesse doivent être recherchées à l’intérieur de la production – mais au-delà du capital et du travail – et en dehors du marché. En résolvant très habilement la contrainte des rendements décroissants qu’impose l’hypothèse de la concurrence pure et parfaite et la théorie de la répartition fondée sur la productivité marginale des facteurs, ces modèles laissent apparaître un processus de production de capital humain par du capital humain. Mais quels sont les fondements théoriques du capital humain ? Doit-on les chercher du côté du concept de travail vivant ? En réalité, le concept de capital humain, suivant la définition du mainstream (orthodoxie), est un concept fort réducteur : c’est la valeur actualisée des ressources futures en fonction d’un investissement initial en éducation.
L’un des problèmes théoriques fondamentaux est justement constitué par la définition du concept de capital humain, qu’on trouve maintenant dans tous les modèles de croissance, mais aussi dans les nouvelles théories du salaire. C’est une catégorie de la pratique avant d’être un concept scientifique. En fait, le capital humain désigne une interprétation communément partagée du rapport de l’individu à son travail et à sa rémunération, ce qui dans l’opéraïsme italien est désigné comme l’autovalorisation.
Le concept de capital humain semble se complexifier et s’enrichir avec la notion de wetware, terme qui désigne directement le cerveau. Le wetware résume et comprend le capital humain, mais aussi les connaissances tacites qui spécifient la singularité de chacun.
Dans un article de 1997, Nelson et Romer analysent la centralité du
wetware et évoquent la nécessité d’une intervention étatique, non plus pour financer la recherche-développement des entreprises mais directement le wetware, le capital humain, formé dans les universités. Le temps de formation, le temps de communication, le temps de construction des réseaux sémantiques et sociaux semblent alors être implicitement reconnus comme temps de production de la richesse essentiels à la production contemporaine de la valeur. L’État n’est plus sollicité par les économistes en tant que consommateur collectif d’une demande supplémentaire, comme dans la théorie keynésienne, mais en tant qu’investisseur essentiel dans le capital humain, en tant que biopouvoir (voir Multitudes n°1). Mais comment l’économie politique peut-elle, dans cette perspective de l’émergence du wetware, maintenir la fiction de l’agent unique et rester enfermée dans la logique de l’équilibre unique, alors même qu’elle est obligée d’introduire la multiplicité des singularités et la complexité des interactions ? Comment peut-elle maintenir une théorie de la distribution fondée sur
le rendement individuel ? Comment peut-elle introduire l’incertitude et l’imprévisibilité des chemins possibles du développement ?

L’approche évolutionniste du changement technique

L’ouvrage fondateur de l’évolutionnisme en économie est constitué par le livre de Nelson et Winter, An evolutionary theory of economic change, de 1982. Le concept d’évolution (changement graduel) est conçu ici dans l’esprit de la théorie de l’évolution biologique de Darwin. Les comportements des agents sont caractérisés par des éléments d’héritage – les routines – mais aussi par des éléments de mutation – les comportements de search (recherche), à l’origine de l’évolution. L’évolutionnisme veut rendre compte de la procédure de prises de décision individuelles, à partir de la diversité des positions des agents. Il met l’accent sur les mécanismes mentaux par lesquels les individus forment leurs représentations du monde, en y incorporant l’originalité de leur situation (hypothèse cognitiviste), et sur le fait que les comportements individuels, et même les objectifs à atteindre, sont construits dans le temps en fonction des apprentissages et des interactions (hypothèse de la rationalité procédurale).
La filiation schumpeterienne est maintenue par l’hypothèse du rôle moteur de l’innovation (de produit, de process, de marché, et organisationnelle) dans le changement social et économique. Mais l’acteur de base n’est plus l’entrepreneur innovateur cher à Schumpeter ; c’est l’entreprise, la firme, qui est le lieu de l’innovation et de l’accumulation des connaissances liées à la production. Cette innovation est le produit des innovations antérieures, mais elle ne sélectionne dans cet héritage qu’une partie seulement. De ce point de vue elle procède à une création destructrice, pour reprendre, à l’envers, les termes de Schumpeter.
Le processus d’innovation est un processus d’apprentissage, un processus cognitif présentant un degré élevé d’irréversibilité, ce qui conduit à considérer que les solutions auxquelles on parvient ne sont pas nécessairement les plus efficientes en théorie, puisqu’elles dépendent des opportunités délaissées dans les étapes antérieures. Le concept d’apprentissage, qui est au cœur de l’évolutionnisme, est conçu dans une logique cybernétique : les déterminations internes se renforcent au fur et à mesure de son trajet, et la différenciation de l’hétérogénéité initiale est croissante.
Le processus d’apprentissage produit de nouvelles connaissances codifiées, articulables, tacites, ou encore transmissibles, transférables et non transférables, en fonction de leur mode de construction. C’est un processus interactif qui se développe d’abord au sein de la firme mais aussi entre elle et son milieu, son marché, le système technique auquel elle appartient, ses réseaux. L’environnement de la firme compte beaucoup dans sa capacité d’innovation. Même les consommateurs participent au processus d’apprentissage, le processus d’imitation-diffusion étant un processus créateur. La performance d’une technologie dépendra plus des rendements croissants d’usages innovants (voir encadré 3) que des rendements croissants d’adoption comme dans la conception classique du succès par extension du marché.
L’évolutionnisme offre donc une analyse très riche d’une production immédiatement créatrice et largement socialisée, tout en affirmant que la grande firme reste le seul lieu possible pour son développement. Il estime que seule la grande firme impose à son espace interne la cohérence susceptible de cristalliser efficacement un ensemble d’apprentissages interactifs. Mais une part importante des connaissances ainsi produites est alors tacite et non transférable; ces connaissances spécifient chaque firme, mais sont perdues pour des interactions plus larges dans la société. La théorie de l’hétérogénéité du milieu économique est alors une théorie de la différence entre firmes, assise sur les routines telles qu’elles ont été incorporées en règles de comportements, en organisation.
Seules survivront les firmes qui auront su incorporer les routines nécessaires pour faire face au changement constant de l’environnement concurrentiel. L’hétérogénéité est liée à la diversité des routines et de leurs modes d’incorporation dans l’histoire propre à chaque firme en fin de compte. Mais au final, cette diversité est soumise à la sélection, à l’hypothèse non de la coopération, mais de la lutte pour la survie. L’innovation n’est pas plaisir mais résistance à l’angoisse dans un monde où la rareté et le manque, on pourrait aller jusqu’à dire l’absence de richesse, semblent rester les données de base.

De l’innovation comme contrainte à la création comme plaisir

Nous pouvons maintenant reprendre notre question initiale : en quoi ces nouvelles théories constituent-elles une innovation majeure ? Elles constituent une innovation majeure dans la mesure où elles finissent par poser l’innovation et la coopération au cœur du changement et de la croissance. Elles constituent une rupture du fait aussi qu’elles assument la non-matérialité de la richesse et surtout les sources « non-marchandes » de sa production, que recèle le concept d’externalité. Elles préfigurent pour nous la possibilité d’échapper à la malédiction des rendements décroissants, et aussi à la rareté des ressources. In fine, la rareté ne serait-elle qu’une construction politique et institutionnelle plutôt qu’un état de la nature?
Avec l’approche évolutionniste du changement technique, à la fiction de l’agent unique se substituent la multiplicité et l’hétérogénéité des acteurs immergés dans un univers traversé par des forces coopérantes, dominé par l’incertitude et par la multiplicité des chemins possibles. Mais la vision du monde que nous donnent ces nouvelles théories ne continue-t-elle pas de s’aveugler sur la richesse socialement accumulée et sur le plaisir de chacun à la faire prospérer? Ne s’aveugle-t-elle pas surtout sur la diversité et la spontanéité des coopérations permises par les NTIC ? Ne s’agit-il pas, une nouvelle fois, de stigmatiser le risque qu’il y aurait à coopérer librement, à échanger sans accumuler, et surtout à mettre en défaut la logique de la prédation? Les lois de l’évolution n’expliquent-elles pas davantage la destruction ou la disparition que la création ?

Corsani Antonella

Enseignant-chercheur à l'Université Paris 1 Panthéon-Sorbonne, elle travaille sur capitalisme cognitif, mutations du travail et métamorphoses du rapport salarial. Dernière publication : Un salariat au-delà du salariat ? (en collaboration avec Marie-Christine Bureau) 2012, à paraître.