Articles

Vers un nouveau modèle d’organisation? Déstabilistion et résistance du taylorisme?

Partagez —> /

Cette communication porte sur les transformations de ce que nous appelons le “modèle d’organisation” de la production. Sans prétention à l’originalité, elle reprend et synthétise divers travaux menés dans notre groupe de recherche[[Le LATTS-CERTES, centre commun à l’École Nationale des Ponts-et-Chaussées et à l’Université Paris-Val-de-Marne, associé au CNRS. Les idées présentées doivent beaucoup, en particulier, à P. Zarifian, ainsi qu’à P. Pelata.. Pour éviter toute équivoque, précisons d’abord que notre approche se limite ici délibérément au plan “micro”, à ce que Babbage appelait 1′ “économie domestique de la manufacture”, et que nous laissons de côté tout ce qui concerne d’une part l’interaction micro-macro, et d’autre part les variantes “sociétales”, ou nationales, du ou des modèles.
La thèse que je défendrai est que nous sommes aujourd’hui engagés dans une transformation de grande ampleur du “modèle d’organisation industriel”, probablement comparable en importance à celle qui s’est opérée au tournant des XIXe-XXe siècles, avec la rationalisation taylorienne. Cette transformation, toutefois, est loin d’être achevée. Elle se traduit par une multiplication d’expériences plus ou moins abouties et par de nombreuses tensions entre les formes du passé, encore bien souvent dominantes, et les formes émergentes de la rationalisation industrielle. Et il n’est pas sûr qu’il sortira de cette phase de transition un modèle aussi unitaire que celui qui a dominé l’industrie du siècle écoulé.
Nous sommes clairement partisans de la thèse du changement profond, en opposition à ceux qui exhibent des preuves de la persistance, voire dans certains cas de l’aggravation, des formes “tayloriennes” ou “fordiennes”. Cette persistance, fût-elle statistiquement dominante, ne peut en effet empêcher le fait que le modèle classique d’organisation à noyau “taylorien” est aujourd’hui objectivement miné dans ses fondements mêmes, et d’abord parce que la théorie implicite de l’efficience (de la “productivité” au sens large) qui en constitue le coeur n’est plus adéquate à la réalité technico-économique contemporaine.
Que subsistent dès lors des poches de taylorisme classique, notamment dans certains secteurs de main-d’oeuvre, et particulièrement de main-d’oeuvre féminine ; que de nombreuses entreprises, prisonnières de structures sociales et de réflexes dépassés, continuent de vivre avec des schémas régressifs, et en particulier tardent à comprendre qu’on ne peut pas exiger une implication croissante des salariés sans leur fournir de contreparties, en rétribution salariale ou en sécurité de l’emploi, ce sont là des réalités indiscutables. Mais elles risquent de se payer tout simplement par la perte de compétitivité, voire la disparition des firmes ou des secteurs concernés. Et elles n’infirment nullement notre thèse selon laquelle c’est l’axiomatique même du modèle d’organisation classique ou “taylorien” qui est dépassée, c’est-à-dire qui ne peut plus rendre compte, ni théoriquement ni pratiquement, de la production réelle d’efficience et de valeur, eu égard aux nouvelles configurations de moyens et d’objectifs que suppose cette création dans les conditions de l’économie avancée.
On voit ainsi que, pour rendre consistantes les thèses du changement ou du non-changement, et sortir du nominalisme qui préside à tant de discussions sur le “taylorisme” et le “fordisme”, il est essentiel de s’entendre d’abord sur les objets dont on parle et les référentiels adoptés : parle-t-on d’organisation du travail, de “modèles” de management social, de choix de stratégies et d’architectures technico-organisationnelles de la production ? Jusqu’à quel point ces éléments font-ils système ? Comment s’articulent-ils avec les éléments fondateurs que sont, à nos yeux, les schémas élémentaires de représentation et d’action relatifs à la production d’efficience ?
Ma communication comportera donc trois parties :

• un rappel de ce que nous appelons “modèles d’organisation” ;
• une présentation des changements en cours, selon nous, dans le modèle d’organisation classique, autour de quatre lignes essentielles de fracture ;
• quelques pistes de réflexion sur les blocages, les ambiguïtés et les tensions de la période de transition actuelle.

Qu’entendons-nous par “modèle d’organisation” ?

Le mot “modèle” est porteur d’ambiguïté, en ce sens qu’il désigne couramment une sorte de “prêt-à-porter”, qu’on adopte ou qu’on refuse, qui se diffuse plus ou moins lentement. C’est le cas en particulier pour les “modèles de management”, lorsqu’on parle par exemple de diffusion du “modèle japonais”. Il faut donc insister tout de suite sur le fait que nous entendons le terme dans un sens tout à fait différent, plus large, plus proche du concept de “paradigme”, tel que l’utilise notamment Kuhn dans sa théorie de la science. Un “modèle” est bien sûr doté d’historicité, il est produit et reproduit par des acteurs sociaux, mais lorsqu’il est constitué, il s’impose en général aux acteurs comme un cadre, souvent plus implicite qu’explicite, de définition et d’évaluation des rationalités d’action. C’est un référentiel plus qu’un outil.
De même que, dans la théorie des paradigmes scientifiques de Kuhn, on résout les problèmes ou les énigmes dans le référentiel d’une “science normale”, sans toujours revenir aux fondements, ou en n’y revenant qu’après des blocages répétés ou des contradictions insolubles, le monde industriel, loin de fonctionner, comme le voudraient les économistes, par optimisations ponctuelles, successives et complètes, se réfère sans cesse à des schémas-types de résolution de problèmes-types, qui sous-tendent les pratiques, souvent réflexes, des acteurs.
Or, l’expérience historique montre que de tels ensembles de schémas existent à grande échelle, et avec une grande stabilité temporelle. On peut les analyser selon deux grandes dimensions liées : les schémas-types d’organisation sociale, ou socio-technique (hiérarchies, mode de commandement, répartition (les savoirs et des tâches); mais aussi des schémas-types de position et de résolution des problèmes d’efficience technico-économique (principes de coordination de l’usage des ressources, de densification de la combinaison productive, de définition “locale” et “globale” de l’efficience, de définition de la relation entre productivité, flexibilité et innovation).
Un “modèle d’organisation”, à nos yeux, est donc ce qui articule intimement ces formes sociales ou socio-techniques et ces principes d’efficience technico-économique spécifiques – ces principes qui composent ce qu’on peut appeler une “théorie particulière de la productivité”, et qui constituent le véritable coeur du modèle.
En définissant ce concept de “modèles d’organisation”, et en cherchant à en tester la validité historique et empirique, nous visons donc essentiellement trois buts :

• Rendre compte de l’unité, en tous cas de l’imbrication extrêmement étroite, du social et du cognitif dans des organisations puissamment finalisées comme les organisations de production.
• Sortir du découpage arbitraire qu’effectuent les points de vue disciplinaires courants, en particulier en France où coexistent trois traditions qu’on peut caricaturer ainsi : celle de la sociologie du travail qui s’est concentrée sur l’analyse des formes sociales d’usage et d’appropriation de la technique, en considérant généralement les principes d’efficience économique comme des données universelles et globales, sans percevoir en quoi ces principes sont “décentralisés” et pluriels ; celle de la sociologie de l’organisation, où le jeu des acteurs se trouve renvoyé aux seules interactions sociales, sans prise en compte véritable ni des enjeux économiques, ni du substrat technique (de la “civilisation matérielle” pourrait-on dire) ; celle des approches “managériales” enfin, qui ont tendance à considérer le social et la technique comme simple lieu de déploiement de “modèles de gestion” économique.
• Sortir enfin de la fiction économique centrée sur l’idée de l’optimisation dans l’allocation et la combinaison de ressources, fiction qui ne rend compte ni de la création permanente de ressources à travers l’innovation et l’organisation[[Voir en particulier les travaux d’Amendola, Gaffard., ni du caractère pluriel et éclaté de la norme d’optimisation[[Bien mis en évidence, notamment, par les travaux du CRG et du CGS. ; il nous semble en effet fondamental de rappeler qu’il n’existe, au concret, aucune optimisation, mais seulement un écheveau, plus ou moins hiérarchisé, de dilemmes, jamais résolus, qu’ingénieurs et gestionnaires tentent de maîtriser au moyen de règles et de schémas d’action, de compromis plus ou moins stabilisés reposant sur des représentations drastiquement simplifiées de la complexité industrielle ; et ce sont précisément ces ensembles de dilemmes et de compromis qui forment le noyau de ce que j’ai appelé une “théorie spécifique” de l’efficience.
Si on accepte cette définition large du “modèle d’organisation” (qui s’éclairera dans la suite), on voit que le changement ne peut pas être analysé simplement comme l’adoption de nouvelles techniques managériales. Au contraire, on comprend qu’il résulte d’un jeu de forces complexes, qui se joue dans l’épaisseur de l’organisation productive, en impliquant tous ses acteurs, et pas seulement dans la superstructure des méthodes de gestion. Et la question centrale est à nos yeux la suivante : y a-t-il ou non cohérence entre le “modèle”, comme cadre de définition et d’évaluation des rationalités d’action, et les déterminants de création d’efficience et de valeur, tels qu’ils résultent de la situation sociale, technique et économique, et tout particulièrement des modes de compétition déterminant la survie des organisations ? Autrement dit, y a-t-il ou non cohérence entre le “modèle d’organisation”, qui possède sa capacité propre d’inertie et d’auto-reproduction, et la “micro-économie” effective des systèmes de production[[“Micro-économie” qui n’est pas donnée en soi, mais résulte à la fois de l’état des moyens (techniques, main-d’oeuvre, etc.) et des objectifs imposés par la compétition. ?
Dans ce qui suit, nous chercherons à montrer que c’est précisément cette cohérence qui est aujourd’hui en crise, sinon totalement rompue. Les schémas d’efficience les plus élémentaires du “taylorisme” qui, malgré une histoire complexe et plurielle, n’ont cessé d’être les schémas de base de l’industrie, sont de plus en plus décalés par rapport à la production effective de valeur.

Quatre lignes de fracture

La présentation qui suit est volontairement stylisée, et vise surtout à provoquer la discussion.
Je n’insisterai pas sur le fond du tableau, que composent à la fois la mutation technologique (développement puissant des formes d’intégration informationnelle) et surtout la transformation profonde des modes de compétition, et la complexification des objectifs de la production qui en découle. Il est abusivement simplificateur de présenter le passé comme un monde où la compétition par les coûts régnait sans partage (avec ses corollaires,: économies d’échelle, productivité-volume). Mais le fait nouveau incontestable est, avec la montée en échelle et en intensité de la concurrence, avec l’imprévisibilité croissante qui résulte de l’affaiblissement général des mécanismes de stabilisation des marchés, la place que prennent les modes de compétition par différenciation (pour reprendre la terminologie de Porter) :

• Compétition par la qualité, qui s’échange de moins en moins contre des coûts ;
• Compétition par la variété, qui entraîne les industriels dans une course-poursuite épuisante à la déclinaison – “modisation” de leurs produits ;
• Compétition par le temps, se jouant autour du double enjeu de réduction des délais de livraison et de réduction des cycles de développement ;
• Compétition par l’innovation, enfin, qui appelle une flexibilité d’anticipation très différente, et quelquefois antinomique, des flexibilités de variété et de réactivité.
Dans ce paysage renouvelé qui, à certains égards, rappelle celui des années 20-30, mais qui, sous d’autres angles, en diffère profondément, se développe un nouveau discours sur le management. Ce discours ne porte plus simplement, comme dans les années 60-70, sur les nécessaires correctifs sociaux à apporter à une organisation du travail rejetée par les salariés, et décalée par rapport à l’évolution des niveaux de scolarisation et de modes de vie, mais bien sur les nouvelles conditions d’efficacité technique-économique.
Les mots-clés de ce nouveau discours de management, qui trouve dans l’expérience japonaise une grande partie, sinon l’essentiel, de son inspiration, sont bien connus :

• Intégration, d’abord, et approche systémique des cycles de production : en particulier, nécessité de passer d’une rationalisation axée sur la ressource travail à une gestion plus globale des ressources, appelée de manière urgente par l’extraordinaire dissymétrie qui s’était progressivement installée entre l’usage “optimisé” de la main-d’oeuvre et l’incroyable flânerie des machines et des matières premières ; mais aussi, recherche de couplages plus étroits entre les diverses phases du cycle productif, le développement, la fabrication, la commercialisation, la qualité de ce couplage étant en définitive aussi importants, sinon plus importants, que l’efficacité propre de chacune des fonctions.
• Horizontalisation des procédures et des communications, ensuite : nécessité de raccourcir les chaînes de communication, pour être plus rapide et plus réactif ; découverte de l’efficacité de processus auto-enchaînés tels que les “flux tendus”.
• Décentralisation des structures et de la décision enfin nécessité de rendre la décision plus efficace, en la rapprochant du lieu de définition des problèmes et de l’exécution des activités : mais aussi volonté de retrouver, par la compétition entre unités décentralisées, un moteur d’action ou d’innovation quelque peu émoussé dans les grandes structures bureaucratiques traditionnelles.
On notera au passage que la compatibilité de ces principes n’a rien d’évident. En fait, une tension majeure existe entre l’objectif d’intégration, c’est-à-dire la recherche d’organisation dont le comportement soit plus “compact” que par le passé, et l’objectif de décentralisation. Et c’est la construction des compromis entre ces principes qui domine aujourd’hui les grands choix d’architecture des systèmes de production, allant de la firmeréseau fortement intégrée au réseau de firmes, apparemment désintégré dans ses structures, mais “intégré” dans son comportement économique.
Ces nouveaux principes managériaux marquent ainsi une inflexion très importante dans l’histoire des organisations – même si la réalité n’est pas toujours à la hauteur de la fiction. Nous remarquerons toutefois qu’il en existe des versions sensiblement différentes, et qui touchent plus ou moins profondément à la structure même que nous appelons le “modèle d’organisation”.
Je ferai, à ce stade, deux observations :
D’abord, il me semble que, dans leur version courante, ces nouveaux principes expriment surtout la remise en cause de la version “fordiste” (c’est-à-dire adaptée à la production de très grande série, du type automobile) du modèle d’organisation classique.
Ensuite, on peut noter que, dans leur version courante là encore, ces principes s’attachent surtout à l’économie de la coordination des activités productives. Or, cette économie de la coordination – analysée en termes théoriques par Aoki, notamment – constitue certes une composante essentielle de ce que nous avons appelé la “micro-économie” de la production. Mais elle est loin, à notre avis, de la résumer, dans la mesure où elle s’intéresse surtout à la relation entre des “activités” données, alors que c’est précisément dans la définition même de ces activités et de leur contribution à la création de valeur que se trouve aujourd’hui le problème-clé. L’économie de la coordination, en particulier, ne dit rien sur l’économie des savoirs, des compétences, et sur l’économie des interactions communicationnelles entre individus qui constitue pourtant, selon nous, le noyau de la nouvelle efficience productive.
Sans opposer “nouveaux principes de management” et “nouveau modèle d’organisation”, et sans tracer une ligne de démarcation trop nette, il me semble donc utile de remonter un peu plus en profondeur au coeur même du modèle classique, en le stylisant (provisoirement) autour de quatre grands thèmes[[Je ne discuterai pas ici en détail la question de la validité empirique de cette stylisation. La remarque principale qui justifie notre idée d’un modèle dominant allant de Taylor à nos jours est la suivante : les principes élaborés à l’origine du taylorisme (mouvement des ingénieurs mécaniciens de la fin du XIX’ et du début du XX’ siècle) sont encore ceux qui dominent l’industrie classique des années 70-80, et par rapport auxquels les industriels se débattent aujourd’hui. La “modernité” des textes “tayloriens”, à cet égard, est surprenante, et fonde notre thèse..
La crise du concept d’opération et du modèle local d’efficience. Comme l’a montré P. Zarifian, l’innovation majeure des ingénieurs tayloriens est l’objectivation des activités industrielles en opérations (humaines et machiniques). Ces opérations ont trois caractéristiques majeures, qui les distinguent des activités de l’industrie pré-taylorienne : elles sont descriptibles par procédures et/ou par décomposition en sous-opérations élémentaires, donc prescriptibles par leur déroulement ; elles sont stables dans le temps, relativement continues et homogènes ; elles sont clairement individualisables. En définissant ce concept d’opération, d’où découle notamment celui du poste de travail, les ingénieurs-économistes tayloriens opérationnalisent une idée qui n’allait pas du tout de soi et qu’on peut faire remonter au XVIIIe siècle français (voir les travaux d’A. Picon), celle d’une analytique possible du travail et du geste. Mais, en même temps, ils cherchent à réduire l’opacité économique des formes de production traditionnelles, du type “putting-out” ou “inside-contracting”, en donnant à l’efficience un socle clair et transparent[[Donc, aussi : base d’un compromis social explicite et juste entre salariés et dirigeants. : l’efficience devient, d’abord et avant tout, celle de l’opération, clairement référée à une nonne.
Or ce modèle, tellement simple et “naturel” que nous ne le percevons même plus, embraye de plus en plus mal sur les situations industrielles modernes.
Techniquement, d’abord, la notion d’opération est souvent de plus en plus difficile à construire. La réalité des activités est, dans un nombre croissant de situations industrielles, de plus en plus décalée par rapport à l’image que continuent à en donner les organigrammes par opérations ou postes.
La prescription par le déroulement devient difficile, voire impossible, pour le travail humain désynchronisé par rapport à l’activité des machines, ne fût-ce qu’en raison du rôle croissant des aléas. Une bonne image est celle du travail des conducteurs ou surveillants de systèmes automatisés, où il faut alterner des moments d’intense mobilisation dans le “temps réel” avec des moments où l’activité se déroule en temps différé, avec des contraintes beaucoup plus faibles, mais ceci n’est qu’un exemple, et la crise de la prescriptibilité est beaucoup plus large. On objectera que des procédures de deuxième ou troisième rang (par exemple, de choix dans un répertoire donné de procédures primaires) peuvent souvent pallier cette difficulté de prescription primaire. Je ne suis pas ergonome, mais il me semble que cette objection ne tient pas réellement, parce que la pertinence d’une action dépend du couple procédure-situation ou procédure-événement, et que la situation ou l’événement ne sont pas des données brutes, mais des réalités extrêmement complexes, nécessitant interprétation, à des niveaux différents (économique et technique, par exemple).
On constate donc une tendance croissante à définir des tâches par les objectifs, ou l’ensemble objectifs-contraintes, ce qui revient à réintroduire une marge d’autonomie intrinsèque dans l’activité. Au passage, on peut noter que cette marge a toujours existé (cf. les travaux sur la distinction travail prescrit-travail réel). Mais une chose est de l’admettre plus ou moins tacitement comme nécessité de régulation, autre chose est de la réintroduire dans le modèle d’efficience lui-même.
Les hypothèses de continuité, d’homogénéité, d’individualisation sont elles aussi, pour des raisons analogues, de plus en plus proches de la fiction que de la réalité. Le travail humain devient collectif non pas en vertu d’options contingentes d’organisation du travail, mais parce que l’efficience elle-même est de plus en plus difficilement sécable en unités individuelles.
Ceci nous amène au point suivant, qui est d’ailleurs, dans le schéma élémentaire taylorien, le complément direct de celui-ci.

La crise du concept de co-opération, et la non-linéarité croissante du passage entre efficience locale et efficience globale. Le schéma fondamental taylorien de l’agrégation des opérations et de leur efficience est, là encore, d’une simplicité biblique. La coopération résulte de la mise en séquence des opérations élémentaires, et l’efficience globale est une propriété additive de l’efficience locale.
Cela ne veut pas dire que les tayloriens se désintéressent de la coordination des activités, et en particulier du flux. Le “bureau du planning” chez Taylor lui-même, par exemple, a pour tâche de programmer des contenus d’activités mais aussi de coordonner le flux. On sait toutefois que cette fonction est restée longtemps très rustique, et assez fortement statique (établissement du diagramme d’ordonnancement et actions pour accélérer la réalisation séquentielle des tâches[[D’où le nom significatif de “hurry-up department” donné aux premiers bureaux de gestion du flux.. Et surtout, l’existence de cette fonction de coordination ne met nullement en cause le postulat fondamental pour que le système soit efficient, il faut et il suffit (presque) que chaque opération soit effectuée avec la productivité maximale. Du même coup, l’ensemble apparaît comme fondé sur un principe technico-social puissant d’économie radicale de communication et d’interaction horizontales, et ceci que la “chaîne de production” soit matérialisée par la technique, ou non.
Or cette axiomatique est complètement bouleversée dans les systèmes modernes de production[[Par “modernes”, nous entendons aussi bien ceux qui font appel à des technologies avancées que ceux qui sont placés dans l’environnement économique décrit plus haut.. Deux réalités nouvelles émergent au contraire
• La performance est de moins en moins additive, des gains ou des déficits locaux d’efficience peuvent produire des effets globaux fortement divergents, non linéaires.
• La performance dépend beaucoup plus de la qualité de l’organisation et des inter-actions (de niveau communicationnel élevé) entre acteurs que de la justesse-rapidité de l’exécution des opérations de base.
Esquissons rapidement trois exemples de cette nouvelle micro-économie.
Un premier exemple frappant est celui des ateliers fortement automatisés et intégrés, du type tôlerie automobile. Une étude passionnante, mais malheureusement confidentielle, comparant minutieusement diverses tôleries, européennes et japonaises, dévoile l’étendue de la non-linéarité de la performance. Elle montre qu’une différence a priori minime dans la fiabilité des outils de base (en l’occurrence des robots de soudure) se traduit, à la suite d’une série d’effets en boule de neige, par une différence considérable dans la productivité globale du capital engagé, le besoin d’investissement pouvant varier globalement de un à deux pour une capacité donnée. Schématiquement : l’intégration en ligne multiplie les occasions de panne ; il faut alors installer des stocks d’autant plus importants que la variété des modèles impose une programmation complexe des rendez-vous de pièces ; les systèmes de stockage et de manutention sont eux-mêmes une source de pannes, ainsi que les systèmes de pilotage complexe qu’il faut ajouter à l’édifice, etc. On peut en conclure que, dans les systèmes automatisés-intégrés, “Dieu est de plus en plus dans les détails”. Mais on aurait tort de conclure qu’il s’agit d’un simple problème technique. Car le maintien d’un taux élevé de fiabilité est d’abord fonction de la qualité de la conception et de la qualité des interactions au sein du collectif humain qui gravite autour du système.
Un deuxième exemple est celui des industries d’assemblages de produits complexes, mettant enjeu de très nombreux fournisseurs (du type : aéronautique). Là encore, l’efficience globale, qui se mesure d’ailleurs en délais autant qu’en coûts, n’a plus grand chose à voir avec la “productivité” des opérations élémentaires. Elle dépend surtout, en l’occurrence, de la qualité du système de gestion des flux, de la précision des rendez-vous, et de la capacité organisationnelle à reconfigurer en permanence cette gestion, qui ne peut pas être rigide ou pré-programmée, sous peine d’amplifier catastrophiquement les dérives locales (voir les travaux d’Hatchuel et Sardas).
Un troisième exemple est celui des grands bureaux d’études et centres de développement, dont le rôle est stratégique dans la compétition. A nouveau, le problème crucial est ici celui de la maîtrise de la complexité, en particulier dans les branches où se superposent des enjeux de complication “technique”, ceux du travail en parallèle sur divers produits et ceux de l’urgence (exemple-type : l’automobile). On connaît, à cet égard, les inquiétantes différences de performances des entreprises japonaises et occidentales (voir Clark, Fujimoto). Il est évident qu’elles sont, là encore, le reflet direct d’une différence de capacité d’organisation des interactions beaucoup plus que d’une différence d’efficience au sein des cellules élémentaires des bureaux d’études..
Au total, on se trouve donc en face d’un vaste basculement. Là où primait l’efficience de l’opération, prime désormais l’efficience de l’inter-opération. D’un modèle où l’efficience exprimait la productivité (de type énergétique : vitesse justesse) dans un monde d’opérations et d’objets, on passe à un modèle où l’efficience exprime surtout les capacités d’expertise et de mise en ordre logique-temporelle (informationnelle) d’un monde d’événements.
On notera au passage, sans développer ce point important, qu’on trouve là un point de rencontre avec le paradigme technique dominant de l’informatique elle-même. Car celle-ci est fondamentalement une représentation logique-événementielle du monde, elle gère et enchaîne des occurrences (depuis le bit élémentaire), et non des objets[[Ce point est développé dans mon article dans la revue Terminal, n° 39/40/41; 1988.. Mais cette parenté entre le paradigme informatique et le nouveau modèle d’organisation a également ses limites. Car, et c’est une deuxième hypothèse essentielle à nos yeux, les interactions sur lesquelles repose désormais l’efficience ne peuvent pas être simplement du type “coordination par la circulation technique des données”. Cette coordination est certes essentielle, mais il nous faut, à l’évidence, prendre le mot interaction dans un sens plus fort. Ce qui esten jeu, et à notre avis détermine en profondeur l’efficience, ce n’est pas simplement l’aptitude des acteurs à faire circuler rapidement et clairement des données techniques ou économiques (tout ce que l’informatique sait faire), mais bien à construire ensemble de nouvelles représentations et de nouveaux schémas d’action[[A nouveau, on retrouve la distinction fondamentale entre organiser et allouer des ressources données et créer des ressources nouvelles., et à confronter pour cela des expériences où le vécu social “ordinaire” ne peut pas être dissocié de la professionnalité technique. En d’autres ternies, introduire l’interaction au coeur de l’efficience ne permet pas de s’arrêter à mi-chemin : c’est bien l’interaction communicationnelle humaine dans toute sa richesse et dans toute sa complexité qui est remise en jeu. Ceci nous conduit aux deux points suivants, qui concernent l’économie des savoirs et des expériences.

Crise de la spécialisation temporelle et organisationnelle des moments d’apprentissage et d’innovation. Le cycle productif taylorien n’est pas statique. Mais il se caractérise par le fait que l’innovation (produit, process) et l’apprentissage s’y réalisent par paliers, au sein de séquences temporelles et de structures organisationnelles bien identifiées. Innovation et apprentissage apparaissent comme des détours de production, clairement découplés des phases de fonctionnement industriel courant, tendant à la stabilité, à la régularité, à la reproduction de procédures et de savoirs institués. La théorie économique elle-même a fortement intériorisé cette coupure, en se désintéressant assez largement du moment de la construction de ressources nouvelles, pour ne plus voir dans la fonction de production qu’un processus d’allocation de ressources données. Au plan pratique, cette coupure s’est exprimée dans la constitution de deux mondes bien séparés dans l’univers industriel, fonctionnant selon des normes très différentes : le monde, relativement informel quant aux procédures, de la conception des moyens et des produits, et le monde puissamment normé et formalisé de l’exécution, du “régime d’exploitation courant”.
Or, dans le nouveau contexte technico-économique, les limites que cette coupure fait peser sur l’efficience compétitive apparaissent de plus en plus clairement. Les moyens engagés dans les phases de conception des produits et des process sont de plus en plus comparables, voire supérieurs, aux moyens engagés dans l’exploitation courante (fabrication, distribution). Le renouvellement incessant des produits et la vitesse de l’évolution des procédés a pour conséquence, d’autre part, que le régime variable devient la règle générale des activités et non plus l’exception plus ou moins marginale, aux bornes du bon vieux régime stable de fabrication.
La capacité d’apprentissage, c’est-à-dire de maîtrise d’un nouveau procédé, d’un nouvel outil, d’une nouvelle organisation, devient dès lors un critère absolument central de l’efficience. Une sorte de course-poursuite s’engage entre la vitesse de renouvellement des produits et des process et la vitesse d’apprentissage des collectifs de travail. Cette capacité d’apprentissage, d’autre part, n’est pas exclusivement, ni même principalement, technique. Compte tenu de ce qui a été dit plus haut sur la liaison organisation-performances, on comprend que c’est l’apprentissage organisationnel qui constitue la clé principale du succès (voir les travaux de C. Midler et F. Charue). Et on comprend aussi que cet apprentissage ne peut pas être vraiment dissocié de la vie industrielle courante. Tout dépend, en particulier, de la capacité des acteurs à utiliser les événements constituant la trame nouvelle de l’activité comme occasion d’apprentissage, d’enrichissement du répertoire d’actions efficaces, ou non. On peut ainsi imaginer une gestion parfaitement routinière, purement réactive, des pannes, comme on peut imaginer une gestion constructive de ces mêmes aléas.
L’innovation, de son côté, reste évidemment très largement une activité spécialisée. Et elle le restera sans doute en partie. Mais, là encore, l’exemple du Japon aidant, on se rend compte que les conceptions tayloriennes et occidentales de l’innovation par paliers, de l’innovation technique coupée de l’innovation organisationnelle, de l’innovation-rupture sont des conceptions qui doivent évoluer en profondeur. L’innovation continue et incrémentale (Kaizen), la conception intégrée de l’innovation comme processus à la fois technique et social, l’innovation procédant par combinatoire et recompositions et pas seulement par ruptures, sont des préceptes managériaux dont la diffusion est, à notre avis, le symptôme d’un changement profond.
Nous noterons pour finir que, là encore, on sent bien qu’il ne s’agit pas simplement d’une meilleure coordination des activités, d’un couplage “systémique” plus étroit entre les phases de conception, d’industrialisation, de fabrication, ou entre la production et les comportements des marchés. Certes, la qualité de cette coordination et de ces couplages est une composante essentielle de la compétitivité. Mais il s’agit, plus profondément, de la nature même de ce qu’on appelle apprentissage et innovation, et de la nécessité de les sortir de leur gangue fonctionnelle spécialisée pour en faire des processus actifs dans toute l’épaisseur de l’organisation.
Crise de la spécialisation par `fonctions” comme mode fondamental d’organisation des compétences, de traitement de la complexité et de recherche du progrès. Ce qu’on vient de dire pour l’apprentissage et l’innovation vaut, dans une certaine mesure, pour l’ensemble de l’organisation des “fonctions spécialisées” de la firme. Ce type d’organisation, qui lui aussi nous paraît aujourd’hui naturel au point de ne plus vraiment être interrogé, s’est développé selon des modalités variées, suivant les branches ou les cultures organisationnelles considérées. Ce qui fait toutefois, à travers toutes ces variantes, la force du schéma d’organisation par “grandes fonctions”, c’est que celles-ci permettent de réaliser simultanément trois objectifs a priori indépendants
• Fournir un cadre de classement, de reproduction et de développement des “métiers”, c’est-à-dire des savoirs et des compétences techniques.
• Permettre un traitement de la complexité selon le mode de la décomposition hiérarchisée des objectifs globaux en objectifs partiels (minimisation des coûts d’approvisionnement pour les achats, réduction des temps pour les méthodes, etc.)
• Permettre l’évolution du système par superposition de fonctions nouvelles aux fonctions existantes (exemple-type : la fonction qualité).
On a déjà noté combien, dans les nouvelles philosophies managériales, cette structuration verticalisée en fonctions se trouvait au centre des critiques. Et je ne m’étendrai pas ici sur les diverses formes pour lesquelles les entreprises cherchent à “décloisonner les fonctions” : développement de structures horizontales ou matricielles par projets, venant croiser celles des fonctions ; recherche d’intégration par l’informatique ; développement de modèles en couches horizontales (disposées grosso modo selon les horizons temporels et stratégiques différents) ; expérimentation de modèles en réseaux fortement décentralisés de cellules multi-fonctionnelles.
Il s’agit là d’un sujet immense, et je me bornerai à noter, une fois de plus, que le problème ne s’arrête manifestement pas à la coordination et à la réarticulation des “fonctions” existantes.
Ainsi, au-delà de la confrontation des “métiers” dans des structures de type objet, par exemple, se pose la question de nouvelles synthèses des compétences, d’organisations qui permettent à la fois la reproduction de professionnalités solides, l’élargissement des métiers existants par ouverture sur de nouvelles composantes, et, éventuellement, l’apparition de métiers transversaux nouveaux. De même, l’articulation des objectifs spécialisés suppose non seulement la définition de compromis, mais la réélaboration d’objectifs différents. Par exemple, on peut additionner des objectifs de fabrication et de maintenance en définissant des fonctions nouvelles transversales : il n’est pas certain que ce soit la méthode efficiente, et qu’il ne faille pas plutôt élaborer des objectifs nouveaux et des professionnalités nouvelles.
Enfin, on commence à comprendre que créer une nouvelle fonction dès lors qu’apparaît un objectif nouveau n’est probablement pas la bonne méthode : vaut-il mieux, ainsi, disposer d’une fonction qualité forte, ou disséminer l’objectif qualité dans l’ensemble de l’organisation, l’incorporer dans le référentiel commun ?
Au total, on voit que cette brève discussion confirme l’idée générale avancée plus haut : à savoir que la densification des interactions nécessaire à l’efficience moderne ne peut pas être bornée à la densification d’une simple communication technique. L’enjeu est bien la création de ressources organisationnelles et cognitives nouvelles, la mise en place de nouveaux référentiels, et pas seulement leur addition, la création de zones de questionnement, d’explication et de réélaboration des objectifs, et pas seulement le développement des compétences instrumentales par rapport à des objectifs donnés.

Blocages, tensions et ambiguïtés

Le fait que le schéma taylorien, tel que nous l’avons stylisé et tel qu’il correspond encore, sans aucun doute, à la réalité statistiquement dominante, soit de plus en plus décalé par rapport à la création réelle d’efficience dans les conditions modernes[[Y compris, dans une certaine mesure, par rapport à ce qui est déjà la réalité micro-économique de la firme, quelquefois complètement différente de la représentation qu’en ont les dirigeants., ne signifie pas qu’un nouveau modèle émerge sans douleur, ni confusion. Nous sommes dans une phase de transition et de contradictions fortes, dont rien ne dit d’ailleurs qu’elle doive se résorber rapidement pour donner naissance à un nouveau modèle. (Certains pensent au contraire que nous entrons dans une phase de forte indétermination et de forte variabilité des modèles, en particulier pour l’organisation du travail ; voir Lutz).
La première difficulté à souligner est tout simplement l’absence de représentation de rechange, qui soit à la hauteur de la robuste simplicité du modèle taylorien. Rien de bien clair ne remplace aujourd’hui des représentations comme l’ “opération”, la “gamme”, la “fonction”. On continue donc souvent à utiliser des représentations traditionnelles, d’où résulte un décalage parfois considérable entre les images, les mots et les choses. Comment représenter efficacement le monde logico-événementiel dont nous avons parlé ? Il reste du travail sur la planche.
La deuxième source de tension vient des décalages, voire des contradictions entre les nouveaux schémas d’efficience, plus ou moins proclamés, les structures sociales existantes et bien des réflexes de gestion ou d’organisation contre-productifs. Je me bornerai à trois séries de remarques
• D’abord, on constate de fortes tendances à l’interprétation taylorienne de méthodes de management soi-disant post-taylodennes. L’application du “juste-à-temps”, par exemple, peut être présentée comme développant la “coordination horizontale” et l’ “implication” des salariés. Mais c’est une coordination extrêmement pauvre sur le plan de l’interaction et de la communication, et c’est une implication qui peut être ressentie par les salariés comme très stressante, parce qu’elle soumet en fait l’individu à une logique collective à l’égard de laquelle son autonomie est très réduite (voir Clot et al.). La difficulté de prescrire le travail par son contenu et son déroulement implique que l’efficience repose désormais, inévitablement, sur la confiance faite aux salariés et à la capacité d’auto-organisation. Mais l’esprit taylorien résiste en profondeur à cette logique. Et on peut constater une tendance à déplacer la nonne de contenu vers une norme tatillonne d’objectif, ou de procédures bureaucratiques, en réalité inutiles et souvent pervers quant à leurs effets. On voit, par exemple, apparaître de telles tendances dans la rationalisation par la “qualité” ou le “délai” des tâches de conception, ou de maintenance.
• La deuxième remarque est que, globalement, dans le cas de la France, les contreparties ne semblent pas à la hauteur de l’effort nouveau d’implication personnelle demandé aux salariés. Ceci vaut très souvent pour les salaires. Mais la remarque s’étend aussi au manque de garantie de stabilité qui est devenu le lot d’une très large fraction de la main-d’oeuvre. Flexibiliser la ressource travail par un recours massif à l’intérim et aux contrats précaires est évidemment la manière la plus simple de gérer les variations de l’environnement économique, de la demande en particulier. Mais c’est, très souvent, une politique à courte vue. Car elle permet de faire l’économie d’une véritable flexibilité organisationnelle. Et elle oublie que la flexibilité de réaction et d’innovation n’existe pas sans une profonde familiarité avec les systèmes techniques et les organisations existantes. Bien réagir aux pannes suppose de bien connaître les machines. Et reconfigurer rapidement un système ou une organisation ne peut se faire rapidement et sûrement que sur la base de schémas d’action parfaitement éprouvés. Lié à cette question de la stabilité, se pose également le problème des échelles de temps et d’espace par rapport auxquelles est jugée la performance, et par rapport auxquelles se définissent les régimes de motivation et de discipline des individus. On cite souvent l’exemple de l’ouvrier japonais qui arrête une chaîne pour qu’on puisse réparer un défaut : cela n’est possible que si le régime de récompenses et de sanctions le permet, c’est-à-dire fonctionne dans le moyen-long terme et pas dans le court terme.
• Enfin, il faut noter les profondes ambiguïtés des concepts de décentralisation. La “cellule autonome”, ainsi, peut signifier des réalités extrêmement différentes selon que l’autonomie se borne à organiser de façon flexible, à très court terme, l’accomplissement des diverses tâches au sein de la cellule (pour gérer l’absentéisme, par exemple) ou selon qu’elle permet une participation réelle à la définition des plans de production sur des périodes significatives, voire à la définition même des objectifs. Le principe de décentralisation, plus généralement, est évidemment positif du point de vue des interactions dès lors qu’il rapproche le niveau de décision du niveau d’exécution. Mais il est souvent sous-tendu par un modèle de compétition (entre individus – et notamment entre cadres – ou entre équipes) plus ou moins exacerbé qui se révèle incompatible avec les logiques de synergie et de partage des compétences et des référentiels d’action. Par exemple, le problème de l’imputation des progrès devient un sujet de discorde lavé, et bloque les synergies dont l’effet ne serait pas clairement appropriable pour l’un ou l’autre des participants. La décentralisation compétitive peut dès lors constituer simultanément un moteur puissant, parfois jusqu’à l’angoisse, de l’activité des individus, et un facteur encourageant l’atomisation, voire les comportements séparatistes.

Références
AMENDOL.A, GAFFARD. La dynamique économique de l’innovation, Economica, 1988.
AOKI. L’économie japonaise, Economica, 1991.
CLARK, FUJIMOTO. Product development performance, Harvard Business School Press, 1991.
KUHN. La structure des révolutions scientifiques, Flammarion, 1977.
LUTZ, HIRSCH-KREINSEN. “Thèses provisoires sur les tendances actuelles et futures de la rationalisation du travail”, in Cohendet et al., L’après-taylorisme, Economica, 1988.
MIDLER. “Évolution des règles de gestion et processus d’apprentissage”, Colloque Economie des conventions, 27-28 mars 1991.
PICON. L’invention de l’ingénieur moderne, Thèse EHESS, juin 1991.
ZARIFIAN. La nouvelle productivité, L’Harmattan, 1990.