Articles

Critique de la rationalisation douce

Partagez —> /

L’entreprise a été réhabilitée. Les discours patronaux d’une part, et les travaux scientifiques d’autre part tendent à dresser un tableau à dominante unanimiste : l’avènement des technologies de l’information (TI) et la volonté affichée de dépassement du système taylorien-fordien auraient tourné la page d’une entreprise fruste, féodale et répressive. L’heure serait à l’initiative individuelle, au retour de l’autonomie, et pour tout dire, au développement de la subjectivité des salariés.
Autant de positions concordantes ne manquent pas de nous interroger. Que devient en particulier la rationalisation qui a conduit à tant de solutions perverses dans le travail ? Non que la rationalisation soit condamnable en elle-même, mais ses effets négatifs (parcellisation des tâches, répétitivité, monotonie…) ont conduit des générations d’ouvriers et d’employés à perdre leur existence pour la gagner, sans possibilité d’un quelconque épanouissement au travail.
Si le système productif a évolué, la rationalisation du travail s’en trouve modifiée. Nous questionnerons dans un premier temps ces nouveaux fondements de la rationalisation du travail comment concilier rationalisation hétéronome du travail et management participatif ? Quel rôle jouent les technologies de l’information (TI) dans les transformations de la rationalisation ? Peut-on parler de rupture pour définir les formes nouvelles de rationalisation recourant aux TI.
Dans un second temps nous observerons ce que signifie l’accroissement du rôle de l’information dans l’entreprise : n’y a-t-il pas une possible tendance à la normalisation de l’information au nom de l’efficacité ? Que dire de la rationalisation de la communication ? Peut-on accroître le rendement de la communication sans instrumentaliser le langage ?

Les nouveaux fondements de la rationalisation et sa naturalisation

Jusqu’aux années 70, on peut caractériser le système productif comme celui de la mécanisation-automatisation archaïque utilisant des asservissements simples. En recherchant la rationalisation globale de la production, les principes tayloriens et fordiens aboutissent à une extrême rationalisation des procédures de travail. A travers la recherche d’efficacité du travail humain, s’instaure en fait un véritable contrôle social de l’activité des hommes, qui, s’il n’est pas nécessairement dans l’essence des principes de Taylor lui-même, se trouve quand même être le résultat de l’application de ces principes au cours du XXe siècle. Durant cette période, le travail humain, que ce soit à l’usine ou dans les bureaux, se trouve au coeur du procès de fabrication puisque l’homme y est en contact direct avec la matière à transformer (y compris dans les bureaux où la matière est l’information à traiter). La productivité globale y dépend essentiellement de la cadence du travail, que ce soit sur les chaînes de montage ou sur les machines individuelles que l’homme charge et décharge.
De la rationalisation des opérations humaines dépendait donc la productivité du système productif. Que le travail réel s’écarte du travail prescrit, comme il a été maintes fois démontré, ne change pas grand chose à l’affaire : la rationalisation, la contrainte par les temps de fabrication et le contrôle des hommes demeurent. La principale découverte des sociologues réside dans l’implication paradoxale, à travers laquelle des hommes soumis contournent les prescriptions pour atteindre les normes de travail fixées en dehors d’eux.
Dans la phase actuelle de l’automatisation développée (celle de l’asservissement informatique d’ensembles productifs, avec des boucles rétroactives), la productivité globale ne dépend plus de la cadence du travail humain, mais du degré d’engagement des installations (temps utile de fonctionnement). Celui-ci dépend essentiellement de trois facteurs[[Le lecteur aura compris que nous ne nous intéressons ici qu’aux secteurs productifs automatisés, délaissant volontairement tous les secteurs labour intensive qui restent très importants (le montage en général) ou qui se développent (la restauration rapide, la distribution, par exemple). :
– de la qualité de la conception du système machinique (nombre limité de pannes) ;
– de la qualité de l’environnement du système lui-même : qualité et régularité de livraison des produits à traiter, capacité de l’encadrement à organiser une maintenance préventive, degré d’intégration des fonctions dans l’entreprise, etc.,
– des interventions directes des hommes sur ces installations ; on peut caractériser ces interventions par leur vitesse (promptitude à disposer sur la machine du bon intervenant) et par leur niveau (capacité du bon intervenant à remettre l’installation en marche).

Autrement dit, même si les hommes n’interviennent plus directement sur la matière, ils restent à l’origine de l’efficacité du système productif. Cette différence dans les systèmes productifs et dans la nature des interventions humaines entre hier et aujourd’hui conduit à une transformation de la rationalisation en général et des procédures de travail en particulier.

La rationalisation inscrite dans le système machinique. Un certain nombre de principes de rationalisation de la production, au sens général, sont souvent cristallisés dans le système lui-même l’enchaînement des opérations de fabrication ou de montage est objectivé dans l’organisation spatiale (succession de machines et de convoyeurs) ou dans le logiciel (exemple de la gestion de production assistée par ordinateur). Cette cristallisation de la rationalisation apparaît souvent comme facteur de rigidité (au moment où la flexibilité est le maître-mot des discours autorisés) et de contrainte. Ici, à la différence de la situation précédente et en raison de cette cristallisation, la rationalisation ne peut être contournée ; certaines initiatives individuelles (relatives à l’implication paradoxale) ne peuvent donc avoir lieu, privant les acteurs de compensations que la rigidité du système ne peut plus offrir.
Ainsi, l’intervention des hommes est de plus en plus largement dépendante, canalisée, par la configuration des systèmes machiniques (et informationnels). Mais en même temps le bon fonctionnement des systèmes automatisés dépend de la bonne volonté des hommes.
Quoique la situation ait évolué, de l’intervention directe de l’homme sur la matière à la médiatisation par la machine, la problématique demeure : comment organiser l’efficacité du travail humain ? Hier, directement sur la matière ou aujourd’hui, sur les installations.
Hier, les principes tayloriens avaient résolu le problème en accumulant les savoir-faire dans le corps des spécialistes (le bureau des méthodes) qui redistribuait à des travailleurs sans grande qualification (ouvriers-paysans, immigrés, femmes). Ce principe rationalisateur a fonctionné sans problème majeur jusqu’aux grandes crises du travail simple des années 70, exprimées dans les grèves des OS.
Aujourd’hui le problème se trouve à la fois simplifié et complexifié. Il est largement simplifié dans les industries de maind’oeuvre (montage, distribution…), en raison de la situation économique et sociale générale : la pression du chômage et l’affaiblissement du mouvement syndical ouvrier poussent les salariés à accepter ce qui était inacceptable dans les années 70.
Dans les secteurs automatisés qui nous intéressent ici, le problème s’est considérablement complexifié pour deux raisons essentielles :
– La fragilisation des systèmes productifs, fragilisation due en grande partie à leur complexité croissante et à leur évolution permanente ; de ce fait, les aléas sont de plus en plus variés et inattendus dans leurs contenus. Ainsi la rationalisation de l’intervention humaine apparaît de plus en plus incertaine ;
– l’exigence croissante de l’environnement en matière de réduction des coûts, d’accroissement de la qualité et de la variété des produits. Ces nouvelles contraintes déstabilisent le système productif puisque le changement et l’innovation prennent le pas sur la routine, contredisant ainsi la logique de la rationalisation.

Dans ce nouveau contexte, la rationalisation du système productif en général et de l’intervention humaine en particulier par le corps de spécialistes qui n’a pas disparu doit plus qu’hier encore se nourrir en permanence des savoir-faire des opérateurs, savoir-faire qui sont eux-mêmes mouvants en raison de l’instabilité des systèmes productifs eux-mêmes (évolutions internes ou obligées par les pressions extérieures).
Pour acquérir ses savoir-faire, le bureau des méthodes, lieu de maîtrise du procès de travail[[Pour une démonstration de la continuité présente de l’interchangeabilité des opérateurs dans le coeur du procès de travail et de l’extériorisation de la maîtrise de ce procès (dans le BM), on se reportera à “Travail contre Technologie” in J.P. Durand et F.X. Merrien, Sortie de siècle – La France en mutation, Ed. Vigot, 1991., agit par deux voies essentielles, intrinsèquement liées, et que l’on ne sépare que pour les besoins de l’exposé : la création de procédures de mobilisation-rationalisation et l’utilisation de la fonction mémoprospective de l’informatique.

Les nouvelles procédures de mobilisation-rationalisation. Après la mode des cercles de qualité ou des groupes de progrès, les ateliers vivent l’heure de la qualité totale, de la maintenance d’exploitation globale ou de la livraison juste d temps. Il faut interpréter ces initiatives comme ayant au moins trois fonctions :

– mobiliser les salariés sur des objectifs assignés par les directions en matière de productivité (fiabilisation des installations, réduction de stocks ou de rebuts…) et de qualité,
– rationaliser les procédures d’intervention des hommes pour atteindre ces objectifs en proposant des méthodes qui donnent l’impression de s’imposer d’elles-mêmes parce que la concurrence (japonaise) les utilise,
– faire exprimer et formaliser des savoir-faire qui pourront alors, dès qu’ils seront acquis par le corps de spécialistes, être diffusés-systématisés au cours de la phase suivante de la rationalisation.

La fonction mémoprospective de l’informatique. Les technologies aujourd’hui largement utilisées correspondent à une formalisation des savoir-faire (cf ci-dessus) et participent à la rationalisation de la production en général et des interventions humaines en particulier.
Ces systèmes informationnels appliqués à la production ou à la gestion, pour répondre aux attentes de leurs initiateurs, doivent être nourris d’informations en permanence, automatiquement quelquefois, mais en général par les hommes qui les surveillent ou qui les entretiennent. C’est le cas des machines-outils à commande numérique, des automates, des robots, mais aussi de la gestion de production assistée par ordinateur, des systèmes d’assistance à la fabrication, etc. Dans cette utilisation de l’informatique, on dépasse largement la fonction d’asservissement des mouvements des machines pour atteindre celle que nous dénommons fonction mémoprospective. En effet, tout en étant l’élément de base de l’asservissement, c’est-à-dire en utilisant de l’information, l’informatique génère ou peut archiver de l’information sur les conditions de la production (pannes, aléas, causes, durées, etc.) et sur ses résultats (nombre d’objets produits, caractéristiques, qualité, état des produits bruts, etc.).

Ces nouvelles informations sont mémorisées pour être traitées automatiquement ou manuellement et pour organiser, gérer l’avenir des produits fabriqués, des moyens de production, des stocks de matière première et des hommes qui accompagnent le processus. Nous sommes en présence d’un processus incrémental de rationalisation où, à partir d’informations mémorisées décrivant et analysant les conditions de production passées, les organisateurs rationalisent l’avenir.
Le second principe de la fonction mémo-prospective est celui de la séparation du flux informationnel par rapport au flux matière. La conscience claire de cette séparation signifie aussi que la maîtrise du premier conditionne dans une très large part la maîtrise du second. Autrement dit, l’industrie qui obtient une image juste du réel peut beaucoup mieux organiser celui-ci et réagir à ses fluctuations. Aujourd’hui, les principaux enjeux portent sur la qualité de cette image du réel, en temps réel. En effet, la manipulation de l’image (simulation du réel) coûte moins cher que la réalisation de maquettes et surtout peut avoir lieu avant l’évènement, donc permet de s’en assurer la maîtrise.
C’est le travail sur une réalité virtuelle qui permet la véritable efficacité de la livraison juste à temps. Par exemple, le camion de Bertrand Faure est si bien chargé que lors de son déchargement les sièges se présentent dans l’ordre des besoins de la chaîne de montage des véhicules chez le constructeur automobile. La fonction mémoprospect.ive systématise la conjugaison des activités de l’entreprise au futur antérieur. Mais la précision des décisions et des modes opératoires pour les mettre en oeuvre, précision due justement aux possibilités offertes par le travail sur le virtuel, réduit d’autant les marges de manoeuvre dans le travail d’exécution. Et ce, au moment où le discours sur l’initiative se fait le plus entendre. Si c’est, comme on l’a vu, pour accroître la mobilisation des salariés afin de faire remonter les informations pour qu’elles soient objectivées, n’y a-t-il pas à travers ce discours sur l’initiative une sorte d’exorcisme face au divorce entre les attentes ou les potentialités des salariés et le contenu des tâches proposées ?

Reproduction et transformations sociales. Ici, de la qualité du renseignement fourni et de la formalisation des savoir-faire dépend le futur (et sa maîtrise à partir de ce qui est rationalisable dans celui-ci). Formellement, on se retrouve donc dans la problématique traditionnelle selon laquelle il s’agit d’obtenir une collaboration sans faille des ouvriers tandis que le modèle du salariat reconduit la séparation des producteurs de leurs moyens de travail. En raison des incertitudes accrues (complexification générale) et de la fragilité des systèmes, cette collaboration est plus que jamais nécessaire. Le dilemme demeure : doit-on maintenir la rationalisation de l’intervention humaine (dans sa dimension coercitive) avec ses corollaires de contraintes et de contrôle, ou doit-on favoriser l’initiative à partir de la confiance sans nuage accordée aux salariés ?
L’informatique aidant, avec sa fonction mémoprospective, la logique de la rationalisation continue de l’emporter, la confiance des directions n’étant que très rarement accordée aux ouvriers ou aux employés. Après quelques résistances marquées lors du mouvement de création des cercles de qualité, la coopération ouvrière indispensable à la rationalisation actuelle de la production informatisée soulève, semble-t-il, de problèmes.
Cela tient en grande partie à un contexte politico-économique où le chômage pousse à l’engagement (au moins de façade) des salariés tandis que le discours sur la compétitivité internationale transforme en contrainte historique ce qui apparaissait hier comme un choix patronal. Cette double situation accélère la perte d’influence du mouvement ouvrier (syndical en particulier), des contre-cultures ou des points de repère et de références qu’il offrait. Réduction d’influence qui, à son tour, permet d’écarter plus facilement toute résistance ouvrière à la rationalisation et à la coopération qu’elle requiert.
Enfin, les procédures mêmes de rationalisation sont aujourd’hui plus douces qu’hier[[Il n’est pas question dans cet article des “sureffectifs” et des suppressions d’emplois qui sont le versant violent de la rationalisation.. Procédures de rationalisation ou de formalisation des savoirs et des savoir-faire en vue de cette rationalisation prennent à travers leurs appellations des habits neufs[[Cf. mon article “Les habits neufs de M. Taylor” dans Terminal, mars 1992. : elles semblent imposées par l’histoire, évidentes, et pour tout dire naturelles. Autrement dit, malgré le rejet de tout déterminisme technique, l’apparition des technologies de l’information est l’occasion d’une rationalisation aux formes plus ou moins rampantes.
Ainsi, à travers sa naturalisation, la rationalisation semble mieux acceptée que celle d’hier qui, comme on le sait, a dû affronter des grèves ouvrières. Mais est-on sûr qu’elle est mieux acceptée qu’hier ? Quel est le degré de coopération indispensable à cette rationalisation douce dans le contexte technologique fragilisé et économique durci ?
C’est ici, à notre sens, que le bât continue de blesser. Car si les entreprises mettent en oeuvre une culture plus participative, ne s’agit-il pas d’un nouveau vernis cherchant à masquer la reproduction à peine amendée du modèle taylorien ? Nombre de chercheurs qui avaient cru dans le management participatif, ici ou ailleurs, dénoncent le subterfuge. La rationalisation douce et ses procédures sophistiquées apparaissent ainsi, avec le management participatif, comme le cache-sexe d’une permanence organisationnelle.
Plus encore, le mouvement de rationalisation pourrait élargir peu à peu, toujours au nom de l’efficacité, la communication langagière à travers la recherche de l’information unique dans l’entreprise.

Vers une rationalisation de la communication ?

La nature de l’information. Fondamentalement, l’information est polysémique malgré le vieux rêve du rationalisateur qui recherche l’information unique (par exemple le coût d’une pièce). En effet, et contrairement à ce que pense le rationalisateur, il n’y a pas d’information absolue et toute donnée, contrairement à la première signification du terme, n’est pas un donné mais un construit social constitué à partir de conventions passées entre les acteurs, sur des objectifs divers et hiérarchisés. Ainsi, l’information unique peut l’être dans sa forme de donnée mais :

– elle n’est certainement pas unique dans son interprétation, et donc dans son utilisation par divers acteurs (appartenant ou n’appartenant pas au même service) ;
– elle ne correspond pas nécessairement dans sa présentation, sa mise en forme ou ses conditions d’accès, aux besoins, attentes et exigences de tous les utilisateurs.

Autrement dit, c’est la diversité des fonctions et des services, donc des points de vue, qui fonde la multiplicité des besoins informationnels et des objectifs assignés aux systèmes informationnels. Il n’est pas utile d’en dresser la liste exhaustive, il suffit de montrer l’hétérogénéité des objectifs entre, par exemple, le bureau des méthodes (exposé du processus technique de mise en fabrication) et le planning de fabrication (ordonnancement de la fabrication) pour comprendre que l’information relative à une pièce peut et doit être différente pour satisfaire cette double exigence tout en étant cohérente pour organiser le passage d’une logique à l’autre. Ainsi, d’une part, la diversité des fonctions et des objectifs des services est à l’origine de l’enrichissement de l’information (à partir de sa polysémie toujours possible), d’autre part, c’est cette polysémie et cette richesse de l’information[[Voici ce que dit par exemple Robert Escarpit à ce propos : “Quand plusieurs événements sont perçus par un ou plusieurs observateurs comme ayant des valeurs informationnelles contradictoires, il s’établit, soit dans l’esprit de l’observateur unique, soit entre les divers observateurs, un processus de communication qui a pour effet de produire une information nouvelle, tendant à résoudre la contradiction” (in Théorie de l’information et pratique politique, Le Seuil, 1981). qui fait problème puisqu’il faut penser et organiser la cohérence de l’utilisation de l’information d’un service à l’autre sous peine de perdre en efficacité et/ou d’aboutir à un repli sur soi, à un nouveau cloisonnement des services.
D’où l’idée venue chez les technologues de rationaliser la production d’information, c’est-à-dire de normaliser l’information comme seul élément neutre et stable dans l’entreprise. En effet, selon un document interne à un comité européen de normalisation, “plutôt que d’essayer d’imposer aux entreprises utilisatrices l’obligation de ressembler à un quelconque modèle, plutôt que d’imposer à un offreur des contraintes structurelles pour ses produits, il vaut mieux s’occuper de ce qui est neutre et stable. C’est l’information qui seule a ces qualités. C’est le seul élément qui soit indépendant de l’usage qu’on en fait. Un cercle est toujours un cercle, un chiffre toujours un chiffre, un mot toujours le même mot. Ceci revient à dire qu’il faut normaliser la manière d’exprimer, de stocker, de transporter les données, sans présumer ni de l’usage qui en sera fait, ni de la nature des utilisateurs”. Et plus loin, à nouveau : “Un consensus se dégage lentement, selon lequel une donnée doit être définie de manière neutre par rapport à l’éventuel usage qui en sera fait.”
La logique de ce projet de rationalisation-normalisation est simple : au lieu de normaliser les protocoles d’échange des données, normalisons ce qui est au coeur de l’échange, à savoir les données. Toutefois, cette logique pose un problème central du point de vue de la communication : est-il suffisant de normaliser la forme des données (“la manière d’exprimer, de stocker, de transporter les données”) pour mettre fin à la polysémie des mots et donc des messages, de l’information en général ? Peut-on codifier toute l’information industrielle sans entamer la qualité de la communication ? Autrement dit, en voulant rationaliser la communication à travers la réduction de la polysémie, dans un souci d’efficacité, ne risque-t-on pas d’aboutir à l’effet inverse, du point de vue de l’efficacité ?

Les voies de la normalisation langagière. Ce projet de rationalisation à travers la normalisation des données peut être interprété de deux façons radicalement différentes : ou bien il ne s’agit que de la normalisation de la forme des données (la manière d’exprimer, de transmettre…) ; ou bien cette normalisation de la forme s’entend au sens large et porte aussi sur les significations qu’elle cherche à codifier.
Dans le cas d’une normalisation de la forme, il s’agit de limiter le vocabulaire, de le préciser et de présenter les données de façon uniforme afin de faciliter la réalisation des protocoles de transmission (il s’agit en fait de faciliter la communication du point de vue technique : protocoles, portabilité des systèmes, interconnexions, etc.). Cet objectif purement technique est relativement facile à atteindre. S’il satisfait une recherche de réduction des coûts techniques, il ne résout pas la question de l’amélioration de la communication entre services différents, fondée sur la polysémie des données et la diversité des points de vue ou des logiques de fonctionnement.
De fait, cette simplification de forme peut favoriser la prise de décision de routine qui, à travers la normalisation, se codifie plus encore. Mais on ne saurait normaliser les procédures de décisions stratégiques qui, par essence, sont imprévisibles, à chaque fois nouvelles, et ne peuvent donc être normalisées.
Autrement dit, la question de la communication compréhensive (par opposition à la communication instrumentale liée aux procédures routinières) reste totale, tout simplement parce que la qualité de celle-ci ne tient pas seulement à la qualité intrinsèque des informations transmises, mais au contexte de la communication. Ce n’est pas le lieu de définir avec précision les composantes de ce contexte, toutefois on peut énumérer grossièrement :
– l’histoire personnelle – ou groupale – des communicants, laquelle influe nécessairement sur les significations données aux informations ;
– le degré de cohésion communautaire des communicants nous entendons par là l’histoire commune ou la mise en communauté des savoirs des uns et des autres ; c’est ce que l’on nomme quelquefois culture commune, voire culture d’entreprise :
– la capacité d’écoute des uns et des autres – en général et au moment particulier de l’échange : tension ou harmonie ? – et leur capacité d’empathie, c’est-à-dire leur capacité à se mettre à la place l’un de l’autre (en particulier la capacité du destinataire à se mettre à la place de l’émetteur pour “comprendre ce qu’il a voulu dire”) :
– la pragmatique de la communication, c’est-à-dire ses effets dans et sur les comportements des communicants pris dans la relation de la communication ; c’est dire que non seulement la communication n’est pas faite que de mots mais qu’elle est mouvante et dynamique.
En résumé, une normalisation de la forme des données ne prend pas en compte l’ensemble du contexte, et n’améliorerait que la communication instrumentale (celle des procédures routinières) sans que la communication plus fondamentale ne s’améliore, en particulier à propos des décisions stratégiques.
Dans la seconde hypothèse, qui porte sur une normalisation de la signification des données, on constate en premier lieu qu’elle ne tient pas compte non plus du contexte de la communication et de sa pragmatique ; ce qui en limite d’autant l’efficacité nouvelle. Mais il y a plus, en limitant le sens des mots – en les codifiant – on initie un processus d’atrophie de la communication, c’est-àdire qu’on s’achemine volontairement vers une autolimitation de la compréhension des données. Ce qui est l’exact contraire des conditions de la communication. Selon R. Escarpit. “Dans un système linguistique, les relations se modifient continuellement sous l’effet de la pratique. Produisant de l’information, le langage est moins fiable que le code, mais sans lui il est impossible de surmonter les obstacles dressés par l’incompatibilité des systèmes (souligné par nous)”[[R. Escarpit, op. cit..
Et ailleurs, à propos de l’informatique et des systèmes informationnels fortement structurés : “la contrainte du canal préforme le message. Tout ce qui n’est pas pertinent à cette préformation est considéré comme bruit et le bruit est soit éliminé, soit utilisé pour confirmer ce qui est pertinent. Or précisément, ce qui fait l’originalité irremplaçable et le prix inestimable de la pensée humaine, c’est son pouvoir de non-pertinence, l’imprévisibilité vraie de l’énonciation et non plus l’imprévisibilité domptée à l’intérieur d’un système probabiliste”[[Idem.. “Bruits”, perturbations de l’information claire ou production d’information et de sens au cours de la communication sont, selon R. Escarpit, les conditions nécessaires à sa réussite. Toute rationalisation, normalisation ou codification porte atteinte à cette qualité de la communication.
En conclusion, la rationalisation de la communication à travers la normalisation-codification de son contenu comme l’envisagent les ingénieurs chargés de la maîtrise des flux informationnels est la plus mauvaise solution qui soit puisqu’elle conduit à un appauvrissement de la communication, c’est-à-dire à une non-communication. Bien au contraire, l’amélioration de la communication dans l’entreprise passe par la prise en compte du contexte de la communication et pas seulement du contenu des données.
Autrement dit, le rôle des sciences sociales devrait croître dans l’entreprise pour que soit reconnue la place prépondérante du contexte dans la communication : dépasser la communication instrumentale appliquée aux procédures routinières devient la première nécessité, s’intéresser à la pragmatique de la communication pour favoriser une communication compréhensive devient une urgence. Les dimensions de ce contexte ont déjà été exposées ci-dessus. Elles s’articulent autour de deux ensembles
– la formation professionnelle des agents pour qu’aucun des éléments des messages ne leur soit étranger, c’est-à-dire qu’ils soient tous inclus dans le grand ensemble de leurs connaissances,
– la création d’une culture commune à tous les acteurs (y compris à travers la formation professionnelle) pour permettre l’empathie et la cohésion communautaire. Ce qui est l’exact opposé de la destruction actuelle des collectifs de travail qui a lieu à travers la multiplication des départs en pré-retraite et la trop forte mobilité des cadres en particulier.
Ce sont autant de pistes d’intervention qui s’inscrivent à contre-courant de la rationalisation aveugle qui a déjà tant coûté à l’humanité.

* * *

On pourrait définir la rationalisation du travail[[Il existe une rationalisation plus générale qui relève de l’organisation de l’entreprise et de sa structuration (aujourd’hui, l’entreprise étendue, avec son réseau de fournisseurs, est une réponse à la question). comme l’organisation du travail en général et celle des tâches en particulier, le suivi et l’évaluation de celle-ci et les sanctions des intéressés (rémunérations monétaires et symboliques, mutations, promotions). Les maillons de cet enchaînement ne peuvent être isolés. Ils constituent la problématique du travail depuis la fabrique (c’est-à-dire depuis la coopération systématisée dans le travail) et plus particulièrement depuis le début du XXe siècle (F.W. Taylor n’en est que la personnalisation). Que les technologies de l’information apparaissent homothétiques avec les principes tayloriens ne fait que renforcer la tendance lourde à la rationalisation.
Le seul fait nouveau – mais il est de taille – est que la rationalisation actuelle, des tâches plutôt que du travail d’ailleurs, se fait en douceur, et plus encore que ce sont les intéressés qui l’organisent eux-mêmes. C’est vrai dans l’auto-organisation des tâches de l’individu ou des individus dans le groupe de travail. C’est vrai dans la phase d’évaluation où l’on assiste à une véritable auto-évaluation à travers la construction par les intéressés de leurs tableaux de bord. C’est tout aussi vrai des sanctions – ou au moins d’une partie d’entre elles – qui s’appliquent dans le groupe à travers la coercition de celui-ci sur les individus.
Ainsi, les caractéristiques nouvelles de la rationalisation en font – provisoirement ? et de manière non homogène – un phénomène intériorisé où l’on pourrait parler de rationalisation consentie ou d’auto-rationalisation.
Élargie au langage pour le circonscrire à la communication instrumentale, la rationalisation pourrait mener à nouveau aux impasses de la contre-productivité qu’elle a déjà trop fréquemment empruntées.