Ce terme, et son équivalent latin prescription, signifient « texte dont le propos est de provoquer un comportement spécifique de la part de son récepteur1 ». Exemples : les Dix commandements, le Code civil, tel ou tel code de circulation, n’importe quel mode d’emploi, n’importe quel programme d’ordinateur. Cette série d’exemples peut être lue comme un abrégé de l’histoire occidentale. La prescription se désacralise progressivement, pour devenir de plus en plus profane. Le comportement se dépolitise progressivement, pour devenir de plus en plus fonctionnel. Mais, dans cette série progressive, il y a rupture. Toutes les prescriptions, des Dix commandements jusqu’au mode d’emploi, s’orientent vers l’homme. Tout programme d’ordinateur, lui, indique une machine. Je proposerai dans cet essai l’idée que la rupture entre l’avant-dernier et le dernier exemple de la série est ce qui nous caractérise.

*

C’est dans les plus anciens textes que se trouvent les prescriptions. Elles programmaient, à l’origine, le comportement humain face à la divinité (les Dix commandements). Par la suite, le comportement humain face à la société (le Code civil). Plus tard, le comportement humain face à la machine (mode d’emploi). La rupture intervenue, elles programment le comportement de la machine face à une autre machine. Ni Deus ex machina, ni Ex machina Deus, mais : Machina ex Deo.

Perspective utopique : dorénavant les programmes seront prescrits aux machines, et les hommes, eux, seront libres. Utopie rationaliste. Plus une machine s’automatise, plus son mode d’emploi se simplifie. Une fois la machine complètement automatisée, plus de mode d’emploi : le programme tout entier se trouve dans la machine. Une fois la culture complètement automatisée, nous sommes libres. De faire quoi ? Des prescriptions pour les machines ? En attendant que les machines les fassent ?

La plupart des philosophes de la culture ne partagent pas cet optimisme utopique. Pourquoi non ? Pour ce qui les concerne, ils ne savent pas lire les programmes des ordinateurs et des intelligences artificielles. Ils sont allés à l’école pour apprendre l’alphabet, mais voilà, les programmes ne sont pas alphabétiques. Or, qu’y a-t-il de plus terrible au monde qu’un texte indéchiffrable ? C’est pourquoi ils craignent le futur. Bien sûr, il est possible aux philosophes de retourner à l’école pour apprendre les nouveaux codes. Les enfants y vont bien. Les enfants, eux, savent lire dans les codes : les enfants, eux, sont intelligents (de « inter-legere »  = savoir lire entre).

Les philosophes de la culture, ne sachant pas lire les programmes, craignent qu’avec l’automation se perde LA liberté. Voici leur argument : les robots et les intelligences artificielles ne peuvent être programmés que pour un type spécifique de comportement. Ainsi, ils peuvent être programmés pour l’assemblage de voitures ou pour le calcul de factures. De tels comportements mécanisables (le travail, la pensée quantifiante) peuvent donc effectivement être imposés aux machines, et ainsi l’humanité peut être effectivement libérée des besognes de ce type. Mais il y a des comportements non mécanisables. Par exemple, celui que prescrit le commandement : « Tes père et mère honoreras ». Or, dans une culture pleinement automatisée, les comportements de ce type, les seuls « vrais » comportements humains, disparaîtraient. Il n’y aurait d’intérêt que pour les comportements mécanisables, et ce serait l’âge du robot. Au lieu d’honorer sa mère, on calculerait des factures. C’en serait fini de la dignité humaine, et avec elle, de notre liberté.

Ces philosophes-là se trompent. Les codes des ordinateurs, qui servent à programmer le comportement des machines, sont capables de tout calculer, et pas uniquement des factures. Ils décomposent tout phénomène en éléments clairs et distincts. Ce que les philosophes appellent les seuls vrais comportements humains (les actes et les décisions libres), les codes les décomposent en éléments du type « actome » ou « bit de décision ». « Tes père et mère honoreras » sera décomposé en actomes du type « Administrer une ou deux cuillerées de purée-mousseline à la maman alitée ». Les robots peuvent honorer notre père et notre mère à notre place. Ils peuvent le faire mieux que nous, avec plus de précision, d’efficacité et de pertinence. Tout comportement est théoriquement mécanisable : pensées, sentiments, et même les inspirations les plus transcendantes. Si difficulté il y a, elle n’est que pratique. Ces comportements-là sont, pour le moment, trop complexes pour être calculés. En théorie, la culture ne fera pas de nous des robots, mais plutôt des programmeurs de robots. Nous serons bel et bien libres, libres de faire des prescriptions. Telle est l’utopie qui nourrit l’automation.

*

Les philosophes qui craignent l’automation font état de la situation actuelle. En effet, voici comment se présente l’automation embryonnaire dont nous sommes les témoins : chez nous (dans les sociétés dites libres), c’est contre tout un maquis de prescriptions et de programmes que nous butons. Nous, les maquisards de l’automation, nous partons à la recherche de trouées vierges de tout programme. Trop tard : à la sortie des trouées se dresse tout un appareil fait de machines et de fonctionnaires programmés pour protéger, more militari, cette drôle de liberté. À l’Est, toute une société composée de centaines de millions de personnes est en train de se transformer en un seul appareil géant programmé, bien que très mal programmé. Et au Sud, toute une cascade de prescriptions et de programmes se déverse sur une société trop affamée et trop malade pour pouvoir fonctionner selon ces programmes. N’est-ce pas là une preuve du danger que présente l’automation pour la liberté ? Et le devoir de tout intellectuel n’est-il pas de témoigner contre cette dictature des appareils, au lieu de s’attarder sur une utopie peu probable ?

Non, le devoir de tout intellectuel n’est pas de témoigner, mais plutôt de prévoir, de « futurer ». La « futuration », au stade où nous en sommes, n’est pas encore entièrement programmable. À nous de nous livrer à cet exercice, ou du moins de nous y essayer. Or, la « futuration » la plus urgente, c’est précisément de prendre en compte le fait que tous les comportements peuvent dorénavant être programmés dans des machines. C’est perte de temps que de vouloir programmer les hommes. Les machines, quand elles sont convenablement programmées, se comportent mieux que les hommes. Perte de temps que de vouloir programmer les actes, les pensées, les désirs et les rêves des hommes. Terminé. Ce à quoi il nous faut réfléchir, en tant qu’intellectuels, c’est à ce type de liberté qui est l’aboutissement de l’automation totale. Il ne s’agit plus de s’attarder à déterminer comment nous libérer des contraintes qui nous programment (forces naturelles, économiques, socio-culturelles, que sais-je ?). Il s’agit désormais de s’atteler à répondre au défi : que faire quand on n’est plus programmé ? L’homme devenu véritablement libre, et ce, pour la première fois depuis que l’homme est homme, que fera-t-il ?

Les programmes, les prescriptions, sont des « valeurs ». « Tes père et mère honoreras » nous informe que « honorer est bon ». Si nous ne sommes plus programmés, si, au lieu d’être programmés, nous programmons, comment saurons-nous ce qui est « bon » ? Pour pouvoir programmer, il nous faudra le savoir. Pour pouvoir dire à une machine : « Des voitures assembleras », il nous faudra savoir que « assembler est bon ». (Formellement, les propositions fonctionnelles ne sont que des traductions d’impératifs.) À la question : « Comment saurons-nous ce qui est bon ? », il y a deux réponses. La première : nous ne le saurons pas. De la sorte, nous ne pourrons pas programmer. Ce seront les machines elles-mêmes qui programmeront automatiquement d’autres machines. Utopie de l’absurde dont le prophète est Kafka : la liberté ne sert à rien. La deuxième réponse : nous fabriquerons nous-mêmes les valeurs. C’est à fabriquer des valeurs que la liberté va servir. Utopie pour laquelle il n’existe, quoi qu’on puisse dire, aucun prophète. En est-il même question ? Fabriquer des valeurs n’a rien de sorcier, ça se fait tout le temps. On le fera mieux.

*

La méthode pour fabriquer des valeurs s’appelle « le dialogue ». Il s’agit d’un échange de valeurs préalablement fabriquées, pour fabriquer une valeur nouvelle. On peut le faire dans la solitude : on échangera des valeurs stockées dans sa propre mémoire pour en faire de nouvelles valeurs. « Le dialogue intérieur ». Méthode de la créativité dont les tenants s’appellent les « Grands Hommes ». Cette méthode-là n’est pas très efficace, ni très efficiente. La méthode du « dialogue extérieur », intersubjectif, est nettement plus performante. Exemple : les dialogues dans les laboratoires scientifiques. Pour pouvoir programmer des machines, il nous faut des valeurs. Et pour fabriquer ces valeurs, il nous faut dialoguer les uns avec les autres. C’est cela la liberté.

La programmation d’une culture complètement automatisée exige des « dialogues extérieurs » plus performants que ceux dont nous disposons actuellement. Il nous faut de nouvelles méthodes. Nous en avons à notre disposition déjà : la télématique et la cybernétique. La télématique nous permet, en théorie, de dialoguer tous avec tous. La cybernétique nous permet, en théorie, de fabriquer des valeurs de plus en plus complexes, valeurs au sens de modèles de comportement de machine. La culture complètement automatisée dépend du dialogue universel télématisé et du gouvernement cybernétique. D’ailleurs, « gouvernement cybernétique » est un pléonasme. Nous ne pouvons pas encore imaginer la force créatrice qui se dégagerait d’une telle culture.

Ne nous laissons pas tromper par la situation actuelle d’automation embryonnaire. Les gouvernements actuels (dont le gouvernement français) se déclarent pour la télématisation et la cybernétisation de la culture. Or, le réseau dialogique qu’il nous faut ne peut pas être programmé par un gouvernement « pré-automatisé » : il doit être lui-même le résultat d’un dialogue. Sinon, la télématique ne serait qu’un gadget pour programmer les hommes. Et les « décisions cybernétisées » ne peuvent pas faire partie d’un programme « pré-automatisé » : elles doivent émerger, elles-mêmes, d’un dialogue. Sinon, la cybernétique ne serait que le gadget d’un gouvernement pour programmer les hommes. Ce dont nous avons besoin, c’est de fabriquer dialogiquement un dialogue télématique et cybernétisé apte à se substituer à tous les gouvernements.

Je parle, bien sûr, ici, de l’utopie platonicienne. La culture sera composée de trois couches. La couche « économique » des esclaves (les robots). La couche « politique » des artisans (des intelligences artificielles). La couche philosophique des rois (tous les hommes). Les hommes seront tous rois, tous, ils programmeront. Avec cette différence par rapport à Platon : les philosophes du futur ne découvriront pas les valeurs éternelles (aletheia), ils les fabriqueront (poiesis). C’est d’une utopie poétique que je parle.

*

Cette utopie-là est devenue techniquement possible. Elle ne l’est pas en réalité. Des catastrophes vont intervenir pour y faire obstacle. Et les catastrophes sont, par définition, imprévisibles. Quand je parle de cette utopie, je ne dis donc pas « vrai » (voir l’article de Pierre Dufour dans le numéro  62 de T/P). Mais cette revue s’appelle Théâtre/Public, n’est-ce pas ? Quand je parle de cette utopie, je fais du théâtre. Je dis faux pour dire vrai. Les termes « prescription » et « programme » trouvent un proche parent dans le terme arabe maktub que l’on traduit par « destin ». Il est devenu techniquement possible de prendre notre destin en main. C’est cela le propos du théâtre. C’est cela la liberté. C’est de cela que je parle (que je dise vrai ou que je dise faux).

1 Ce texte constitue la deuxième partie d’un ensemble de deux écrits publiés dans la revue Théâtre/Public, no 67, janvier-février 1986, p.  79-81, sous le titre général « Tes père et mère honoreras ». Le première partie, intitulée « Y a-t-il un futur pour l’écriture ? », était l’esquisse de l’introduction de l’ouvrage éponyme (encore inédit en langue française). Ce document porte le no  699 dans les Archives Flusser ; il a été retranscrit du tapuscrit et édité par Yves Citton.