Les robots oscillent entre vivant et inerte

Il est impossible d’ouvrir un dossier consacré à la robotique sans rencontrer de multiples prophéties annonçant dans un futur proche que nous vivrons entourés de robots anthropomorphes ou zoomorphes et que nous nous machinerons par des voies que nous ne pouvons pour le moment qu’entrevoir. Peut-on envisager une robotique un peu moins prophétique et donc décevante, un peu plus pragmatique et donc plus surprenante, et un peu plus réflexive et donc habitée par un principe de précaution ? Faut-il continuer à faire passer les machines pour autre chose que ce qu’elles sont ou doit-on arrêter de les prendre pour ce qu’elles ne sont pas (des animaux, des humains) ? Faut-il considérer qu’elles constituent un « règne »1 à part entière, à côté du minéral et du végétal, ou bien faut-il continuer de les reléguer dans l’instrumental, ce grand bazar ?

Il s’agit ici de se faire le relais des observations faites par tous ceux qui, dans le champ de l’anthropologie principalement, ont observé la « révolution robotique » avec les outils de l’enquête de terrain, abordant ses essais d’expérimentation/implémentation de la manière la plus pragmatique qui soit, c’est-à-dire en allant voir ce qui se passe dans les situations très concrètes d’interaction avec les robots là où ils sont. À défaut de pouvoir aboutir à une prophétie plus « réaliste », on espère au moins déconstruire quelques réflexes prophétiques existants et reformuler les motifs d’inquiétude quand cela paraît nécessaire.

De quoi voulons-nous nous entourer ?

La question de savoir de quoi nous voulons nous entourer (créatures anthropomorphes, animales ou autres) pose des problèmes anthropologiques, éthiques, politiques. Mais il n’est pas certain que le débat soit toujours bien posé quand on assimile la robotique à une toute petite partie d’elle-même qui se consacre à la conception de « créatures artificielles » et à une plus petite partie encore dédiée aux robots d’apparence humaine, les « humanoïdes ». C’est à une reformulation de ce débat que nous souhaitons contribuer. Rien n’empêche la robotique dite «de service» d’explorer des voies alternatives à la forme humaine ou animale puisque, comme le montrent les roboticiens, il suffit généralement de peu de chose pour qu’un effet d’autonomie et d’intelligence se produise dans un artefact.

Mais pour le moment, les humanoïdes ne brillent pas par leurs performances. Des tourelles sans bras ni jambes qui ressemblent à des poubelles sur roulettes produisent de bien meilleurs résultats à la RoboCup que les humanoïdes qui ont encore bien du mal à trouver leur équilibre et s’écroulent au bout de quelques mètres avant d’avoir touché le ballon. Les robots envoyés à Fukushima pour colmater les fuites n’arrivent même pas à faire ce geste simple qui consiste à bien fermer une valve et que n’importe quel plombier ferait avec le plus grand naturel. Le Geminoid, robot conçu par Ishiguro à son image et qui est encore aujourd’hui une star parmi les humanoïdes, n’est au fond qu’une grosse marionnette, télé-opérée par ordinateur.

Tant mieux pour ceux qui pensent que les machines n’ont pas d’âme, qu’on n’attribue une vie aux machines qu’au prix d’un lourd contresens, que les machines ne sont que ce qu’on y met et rien d’autre, que le « non humain » n’est qu’un glissement de langage qui génère de la confusion ontologique. Tant pis pour les « néo-animistes » qui rêvent d’un monde idéalement peuplé de compagnons artificiels et d’hôtesses japonaises en silicone. Cette révolution-là a toujours du mal à convaincre. Ses créatures sont partout à l’affiche mais beaucoup défaillantes. Alors de quoi avons-nous peur ?

On peut être intrigué par certains choix de recherche et de développement, surtout dans la robotique dite « de substitution ». On peut aisément comprendre le développement de la robotique chirurgicale, mais pourquoi des robots compagnons à « visage humain » ? Pourquoi une robotique sexuelle ? Y a-t-il vraiment une demande ? Des expériences sont tentées. Des liens de dépendance se nouent avec des chiens robotisés. Des relations amoureuses se machinent. Il existe bien des « love dolls » au Japon, des dieux hindous robotisés en Inde. Mais à qui se substituent-ils ? À personne en réalité, en tout cas pas aux « espèces » qui les ont inspirés. Ces curiosités dotées d’un peu plus d’animation et d’interactivité que des poupées, viennent s’ajouter à des répertoires de formes et de pratiques, même si c’est parfois de manière imprévisible.

Les prophéties n’auraient jamais pu anticiper par exemple le fait que les « love dolls » ne sont pas conçues comme de purs accessoires sexuels mais des objets quasi-rituels doués de propriétés magiques (voir le travail d’Agnès Giard), ou encore qu’on se mette un jour à robotiser les dieux hindous sur les plateformes rituelles de Bombay pour renforcer la dévotion sur un mode hypnotique. Quand David Levy prédit dans Love and Sex with Robots, l’explosion des poupées robotisées (mais seulement après celle, plus noble, des programmes des jeux d’échecs), il ne pouvait pas se douter que la robotique irait se loger du côté des objets magiques, plus que du côté des sex toys utilitaires. Il faut donc repenser les prophéties, les plus anciennes (« grâce aux robots, fini les tâches fastidieuses ») comme les plus récentes (« grâce à eux, nous ne serons plus jamais seuls »). Les robots qui fonctionnent ne sont pas ceux que l’on attendait, au moins depuis Rodney Brooks et son fameux appel à faire des machines sans mécanisme interne de représentation (« Intelligence without representation », 1991).

La greffe ne prend pas où l’on attendait et elle prend là où on ne l’attendait pas. De la cognition s’est partout distribuée, l’informatique étend son empire. Des décisions sont prises à l’aide de soft-robots dans les plus hautes sphères de la finance, des objets commencent à se répondre (le fameux internet des objets), des maisons s’auto-gèrent par ordinateur, des aspirateurs en forme de soucoupes font leur chemin dans les intérieurs, la chirurgie s’équipe de scalpels contrôlables à distance, des drones insensibles à leurs cibles modifient la notion de guerre, les sex toys se dotent d’un peu plus de répondant s’infiltrant au cœur de la sexualité, sans qu’on puisse dire pour autant que tous ces composants constituent des « créatures » à proprement parler. La robotique ne cesse de produire des artefacts difficilement catégorisables, doués d’« agentivité », comme disent les anthropologues, et qui sont plus que des objets, ni purement des accessoires, ni complètement des personnes. Il semblerait que la robotique puisse même progresser sans se modeler sur de l’anthropomorphe ou du zoomorphe, à visage découvert, sans que ses machines dissimulent leur identité de machines. Peut-on choisir de quoi nous entourer? Peut-on imaginer qu’un jour le débat soit posé et comment faudrait-il qu’il le soit pour ne pas tomber dans l’opposition stérile entre les partisans du «tout» ou du «rien» robotique?

À cet égard, l’anthropologie regorge d’exemples instructifs qui montrent que les hommes ont eu beaucoup de mal à vivre sans considérer un bon nombre d’entités qui les entourent comme des « personnes » (animaux, végétaux, minéraux, etc.) ou sans s’entourer de « quasi-personnes » artificielles (des esprits, des divinités, des « agents », etc.) chargées d’accomplir certaines tâches dans ce monde-ci ou dans d’autres. Demandez à un anthropologue de vous raconter son « terrain », il se fera un malin plaisir de vous parler d’histoires de dieux et d’esprits aux modes d’action bien précis et de décliner la liste des êtres artificiels, souvent imaginaires mais aussi très souvent matérialisés dans des corps et des matériaux hétéroclites qui peuplent la culture qu’il étudie. La question reste de savoir ce que l’électronique et la programmation modifient, et si la relation avec de tels objets est toujours du type « marche-arrêt » ou du type « je te commande et tu obéis ».

Dans ce contexte, la question n’est pas de choisir entre, d’un côté, un monde rempli de « quasi-personnes » et, de l’autre, un monde qui en serait dépourvu, mais plutôt entre des genres de personitude et s’il faut avoir de celle-ci une définition étroite ou élargie. Il faut sans doute tenir ensemble toutes les mutations qui s’opèrent à l’heure actuelle au niveau de notre rapport aux animaux, aux végétaux, aux objets et aux machines. Car c’est notre catégorie de « personne » – celle avec laquelle nous fonctionnons au quotidien pour gérer nos relations avec les choses et les êtres qui nous entourent – qui est en train de se modifier radicalement.

La prolifération des « circuits faibles »

Tout l’intérêt de l’anthropologie de la robotique est qu’elle n’a pris aucune de ces prophéties (de l’invasion «humanoïde» à celle du «transhumain») pour argent comptant. Elle a préféré s’en décaler et au lieu d’ajouter son propre commentaire à d’autres commentaires, elle a choisi dans un premier temps d’observer2. Et elle a constaté partout des relations incertaines, défaillantes, des robots qui ne fonctionnent qu’à moitié, des effets d’annonce pas toujours suivis par des actes, des robots qui fascinent un moment mais ne soutiennent pas longtemps la curiosité, des expériences en communication qui ratent, des bugs et des pertes de signal – en un mot des circuits faibles.

Les circuits faibles sont dominants dans l’histoire des techniques. Mais sont-ils assumés comme tels ? Le champ religieux est évidemment plein de circuits faibles. Les idoles des temples hindous qui sont considérées comme vivantes à partir du moment où on effectue un rituel d’ouverture des yeux (opéré par un officiant) impliquent une forme d’intermittence ou de discontinuité. Et cette intermittence est essentielle. Une idole ne peut être habitée par un dieu 24h sur 24, ou alors cela signifie qu’il faut la soigner et la nourrir en permanence. Les circuits faibles ont leurs théoriciens, mais il ne s’agit pas des grandes figures de la cybernétique. Les romans de Philip Dick par exemple en regorgent ou encore les films burlesques de Charlie Bowers, un grand adepte des courts circuits et des pertes de signal. Les circuits faibles sont un champ aussi high-tech que low-tech, mais largement ignoré par la cybernétique qui a eu tendance à célébrer les liens forts et les connexions continues. On peut voir dans les circuits faibles une variation sur ce qu’Alfred Gell appelait la « circuitousness » (la circonvolution technique), mais c’est moins leur complexité technique qui doit retenir notre attention que leur hétérogénéité. On peut forger du circuit faible avec à peu près n’importe quoi, du bois, de la pierre, du métal, de l’électronique, de l’invisible, et même les mêler ensemble dans des « assemblages » ou des « entités » hybrides. Et on a oublié que l’interruption, contrôlée ou non, la défaillance, le fait qu’un robot ne marche pas, qu’il puisse beuguer, n’est pas synonyme de faillite relationnelle. Il faut faire l’apologie des circuits faibles. La robotique n’a pas le choix, si elle veut continuer à fabriquer sans nous tromper encore et toujours sur la marchandise.

Les répertoires de « quasi-personnes » à extension variable

En regardant les usages et notamment les conditions dans lesquelles les gens en viennent à « adopter » des robots, on s’aperçoit que ces créatures sont rarement confondues avec des êtres en chair et en os. Elles se trouvent au contraire intégrées dans des répertoires de «quasi-personnes » de plus en plus riches et gradués. Personne n’aurait idée de confondre d’un point de vue ontologique un chien robotique avec un vrai chien. En revanche, le chien robotisé possède quelque chose du chien selon des modes qu’il faut déterminer en situation. Imaginez que votre petit chien robotisé, avec qui vous avez l’habitude de converser devant la télévision et que vous caressez « comme si » c’était un vrai chien, s’éteigne brutalement. Vous vous direz simplement : « Ce n’est qu’un objet, je vais l’emmener chez le réparateur ! ». Et c’est justement l’intérêt d’avoir un animal robotisé, et pas un vrai chien avec qui nous nouons un lien de dépendance vital. Il ne s’agit pas d’une accoutumance sur le mode « marche/arrêt » mais d’un lien « de vie et de mort ». Paro, par exemple, le fameux phoque robotisé japonais qui couine quand on le caresse, doit son succès au fait qu’il est une machine, un substitut, et qu’il ne présente pas les inconvénients d’un vrai chien qu’il faut nourrir, descendre faire ses besoins, amener chez le vétérinaire. Dans ce cas, comme dans beaucoup d’autres, on célèbre une machine pour sa ressemblance avec un être vivant, mais on en fait usage pour sa dissemblance par rapport à cet être.

Substituer au rêve d’une « fusion animiste » une théorie des « attachements intermittents »

Les robots s’allument et s’éteignent. Comme tous les objets électroniques, c’est une caractéristique qui les empêche de s’intégrer naturellement et sans difficulté au règne du vivant. La robotique voit trop souvent dans le fait que ses robots soient arrêtés ou inactifs une limite ou un obstacle à leur intégration. Certes, on peut s’accoutumer à leurs vibrations et vouloir qu’ils restent allumer en permanence, mais comment développer une relation épanouissante avec un objet électronique que l’on allume et qui s’éteint sans être accusé de naïveté? Est-on condamné à être un « animiste intermittent » ? À moins d’inventer des robots qui, lorsqu’on les éteint, ne s’éteignent pas vraiment et continuent d’évoluer ou bien de changer de paradigme. Ce changement est sans doute nécessaire. Au lieu de poursuivre un rêve de fusion « animiste », il faut penser positivement l’oscillation entre différents états, marche et arrêt, attachement et détachement.

En robotique, il est loin d’être le seul, mais le Geminoid d’Ishiguro sur lequel nous avons fait des expériences illustre bien l’idée d’oscillation. Son concepteur pensait qu’il fallait tout faire pour faire durer la confusion ontologique entre l’homme et la machine le plus longtemps possible par le biais de « micro-mouvements » programmés, et il s’est heurté à d’énormes difficultés. L’expérience a bien montré que, dans une interaction avec un interlocuteur, le robot passe son temps à « s’upgrader » à l’état d’humain ou à rétrograder au contraire à l’état d’handicapé puis de machine, aussi bien quand on s’y attend le moins que lorsque les interactants se concentrent très fort. Et il est intéressant de comprendre les implications d’une telle irrégularité. La défaillance n’est jamais extérieure à la relation, elle en est un moment constitutif, et elle peut être un moment décisif dans le renouvellement d’une relation. Les relations ne sont pas suffisamment envisagées comme des oscillations.

Or une relation avec un objet électronique peut « s’upgrader » dans quelque chose qui est bien plus qu’une relation utilitaire, un lien passionnel même parfois, dès lors que l’objet est allumé, et elle rétrograde quand l’objet est éteint. L’un ne va pas sans l’autre. Un téléviseur qui émet arrive à se faire oublier au point qu’on discute des informations ou du contenu d’un film sans même se soucier de l’émetteur. Mais dès lors qu’il n’émet plus, il n’est plus qu’un amas de circuits et un tube cathodique pour l’utilisateur, de la même façon qu’un ordinateur rétrograde et devient profondément étranger dès lors qu’il ne fonctionne plus. À première vue, un humanoïde rétrograde aussi vite qu’on l’a surclassé comme « humain » dès lors qu’il se casse ou qu’il ne fonctionne plus.

Ne pas penser « humain » ou « animal » mais « objet à comportement »

La flexibilité de l’objet, qui fait qu’on peut à certains moments le considérer comme un quasi-vivant et à d’autres comme un simple amas de circuits et de boulons, pose un problème dans une ontologie trop rigide qui considère que les choses sont ce qu’elles sont une fois pour toutes, alors qu’elles sont en réalité l’ensemble de leurs usages. Un ordinateur a un mode de fonctionnement propre et peut devenir radicalement capricieux voire incompréhensible à vos yeux. Il n’est pas d’emblée assimilable à une personne, mais il est ce qu’on appelle un objet à comportement.

Vous êtes dans une relation oscillatoire avec votre ordinateur comme avec tout autre objet, pas tellement parce que vous le voulez mais parce que votre ordinateur vous oblige ou vous contraint et vous impose ses « états ». Ce n’est pas parce que vous êtes très attaché à votre ordinateur, que vous lui avez donné un nom, et que vous l’insultez quand il peine au démarrage, que ça fait de vous un « animiste » forcené. Si vous lui parlez de temps en temps comme à une personne, c’est parce que faire « comme si » ouvre des possibilités de dialogue et d’expression, et que c’est bien plus intéressant d’être dans de telles relations que de vivre seul environné d’instruments dépourvus de toute personitude. Du coup, la relation passe par des hauts et des bas, des moments de fusion totale où votre ordinateur est une extension de votre réseau de neurones, votre meilleur compagnon, et d’autres où il est un étranger, un amas de circuits et de boulons réticent à toute fusion.

Cette oscillation, le fait qu’un objet peut s’upgrader et rétrograder, devenir autre chose que lui-même ou faire oublier une partie de ce qu’il est, me paraît essentielle dans le débat actuel sur la robotique. On envisage de façon souvent un peu trop rigide les relations aux robots (on parle « identification », « ontologie ») là où il faudrait les voir de manière dynamique, « en devenir », avec des phases d’approche, de familiarisation, de connexion et de coupure. Et on a tendance à se concentrer sur les moments forts où la confusion avec d’autres êtres (animaux, humains) est la plus palpable, en laissant de côté les moments plus faibles.

Arrêter d’exiger des machines qu’elles nous ressemblent

Comment diable en est-on arrivé au point de se faire peur et d’imaginer que des « gadgets » puissent concurrencer les relations entre humains ? On a sans doute un peu trop exigé des machines qu’elles nous ressemblent. Ne pouvait-on pas se contenter du fait qu’elles contiennent un peu d’humain ou un brin d’intelligence ? C’est la faute à la psychologie qui a livré à la robotique la plupart des expériences lui permettant de légitimer ses projets de conception. À en croire la plupart de ces travaux, si on s’attache à des machines, c’est en les confondant à un moment ou à un autre avec d’autres êtres vivants (des humains, des animaux). L’anthropomorphisme est assumé ici comme une caractéristique profondément ancrée dans le genre humain. Ce dernier se modèle sur ce qu’il connaît déjà pour entrer en relation avec les objets qui lui sont offerts. La robotique n’aurait plus qu’à jouer sur ces processus d’attribution et faire de « l’anthropomorphisme appliqué ». Mais de ces processus d’attribution souvent complexes, la robotique a-t-elle une vision claire ? Rien n’est moins sûr.

Rompre avec les facilités de l’anthropomorphisme appliqué

Valentino Braitenberg l’avait bien montré dans son expérience en psychologie synthétique (Vehicles, 1984) avec ses petits véhicules low-tech, dotés de comportements aussi simples que suggestifs. Il a suffi à Braitenberg de quelques capteurs et de rouages très simples pour donner le sentiment que ses machines étaient animées de sentiments comme le désir, la pitié, la peur, l’agression, la provocation, l’amour, la sérénité ou encore qu’elles étaient dotées d’un libre arbitre. Pas besoin de déguiser les machines, il suffit qu’elles soient dotées d’un comportement pour qu’on leur prête des intentions et des émotions.

Les formes variées de stimulation sur lesquelles s’appuient aujourd’hui les « objets à comportement» semblent tirer parti de la générosité des mécanismes d’attribution qui, chez l’humain, semblent s’enclencher dès le premier contact avec un objet, aussi inédit soit-il. Et dans les contextes étudiés par les anthropologues, cette générosité est sans limite. On trouve pléthores d’entités (minérales, animales ou végétales) qui sont conçues comme des personnes et qui ne sont pas des humains, dans les cultures les plus variées. C’est ce qui a poussé l’anthropologue brésilien Eduardo Viveiros de Castro à dire un jour que « le concept de personne est logiquement antérieur à celui d’humain » (Viveiros de Castro, 2009). Et il est bien normal que des animaux et des végétaux soient considérés comme des personnes quand on vit au plus profond de la jungle. Ajoutons que si le concept de personne est antérieur à celui d’humain, le concept de comportement est logiquement antérieur à celui de personne.

Sortir les machines de l’ère du bluff dans laquelle Turing les a plongées

Rappelons ici le changement de paradigme que proposait Turing, car il est à la source de beaucoup des malentendus que nous avons mentionnés, et notamment du fait qu’une relation épanouie avec une machine devrait nécessairement passer par un moment de confusion ontologique avec l’humain. À la question « les machines pensent-elles ? », Turing en substitue une autre : « dans quelles conditions une machine peut-elle nous tromper sur le fait qu’elle pense ? » (1950). Il proposait donc aux concepteurs de « machines intelligentes » de se donner pour horizon non pas la conception de « machines pensantes », mais la mise au point de machines capables de nous faire croire qu’elles pensent, autrement dit des machines qui exploitent la générosité de nos processus d’imputation.

Le test imaginé par Alan Turing a été largement critiqué par ceux qui s’intéressent à l’histoire des machines pensantes (Gunderson, 1964 ; Anderson, 1983). Inspiré d’un jeu de foire dont l’objectif était de générer le maximum d’ambiguïté pour tromper le questionneur, il visait à tester les capacités d’une machine à nous confondre non seulement sur son genre de machine, mais aussi sur sa masculinité ou sa féminité. Dans un cadre expérimental, c’est par un jeu de rencontre à la «Tournez Manège» que cette capacité au bluff de la machine peut être évaluée : un cobaye est dans une pièce et échange des billets avec une machine située dans une autre pièce en compagnie d’un autre être humain. Le but de la machine est de faire croire au cobaye qu’elle est une femme, le but de l’être humain qui l’accompagne est de brouiller les cartes et l’objectif du cobaye est de deviner à qui il a affaire.

Autrement dit, les machines n’apparaissent douées d’intentionnalité pour Turing que si elles nous trompent sur leur véritable nature de machines. Et, du coup, on ne peut considérer les machines qu’en fonction de nos imputations, de nos projections, de ce qu’on y met. La prégnance du test de Turing est encore aujourd’hui très forte en robotique. Elle imbibe toute expérience qui se donne pour but de concevoir de nouvelles interactions homme-machine. Or il serait assez facile de démontrer les limites du paradigme de Turing pour la conception des machines, car celles-ci n’ont qu’un choix : devenir humaines au prix d’un tour de prestidigitation ou rester condamnées à leur état de machine.

Le test de Turing n’a pas rompu avec cette conception « magique » (au sens de la prestidigitation) de la machine comme un tour de foire qui, depuis le XVIIIe siècle (de l’automate de Kempelen et bien d’autres), débouche toujours sur le même genre de relations paradoxales. Imaginons qu’une machine vous envoie un message qui dit : « je suis un être humain ». Quelle serait votre réaction ou quelles sont les réactions possibles ? On peut prendre ce signal au premier degré, l’accepter et se comporter avec cette machine comme avec un humain. Mais comme il s’agit d’une machine, elle va avoir du mal à dissimuler longtemps ses caractéristiques de machine. Il est donc probable que vous soyez pris dans un jeu plus compliqué et que ces signaux génèrent un malentendu, un conflit de catégories « ontologiques » (entre l’humain et la machine) ou une contradiction entre deux « systèmes d’inférence », comme on dit en sciences cognitives : celui qui vous conduit à identifier un humain et à vous comporter avec elle comme on se comporte d’ordinaire avec un être humain, et celui qui vous dit que c’est une machine, déterminant un autre type de comportement. On peut compliquer encore la situation : imaginons que vous ayez un désir très fort de considérer cette machine comme un être humain, mais que la machine dérape périodiquement, vous envoyant le signal qu’elle n’est qu’une machine. Soit vous l’ignorez, soit vous trouvez un moyen ou un compromis pour gérer ces informations contradictoires, cette intermittence des signaux d’humanité.

La robotique ne peut s’en sortir avec une telle conception invivable qu’elle a longtemps imposée à ses utilisateurs. Cela suppose un renversement : au lieu de guetter les signaux d’humanité, se mettre à l’écoute des signaux de machinitude et tenter de saisir ce qu’ils nous disent. N’est-ce pas au fond ce que font tous les utilisateurs de machines, à commencer par les automobilistes ? Ces derniers apprennent par l’expérience et au prix parfois d’une longue cohabitation à interpréter les signaux de leurs engins.

« Je sais bien….mais quand même…. »

En raison de la prégnance du paradigme illusionniste en robotique, on s’est retrouvé forcé d’adopter avec les artefacts robotiques des relations sur le mode de la croyance et que Mannoni avait résumé par la formule suivante : « Je sais bien… mais quand même…. » (Mannoni, 1969). « Je sais bien, ce n’est qu’une machine, mais quand même, elle bouge, elle parle, elle me répond ». On pourrait multiplier les exemples. Beaucoup des attachements noués par les humains avec des choses, avec des dieux comme avec des interfaces technologiques, dans les cultures les plus variées, se développent ainsi, sur le mode du «comme si», autorisant l’ambiguïté, le flou ou la flexibilité ontologique. Le doute n’apparaît que lorsqu’on en parle, la contradiction se dissipe dans l’usage.

À la différence d’une peinture ou d’une sculpture qui invitent à une relation contemplative, un robot incite d’emblée à l’action ou à l’interaction sur le mode de l’usage, de l’expérience ou du jeu. Et quand on observe les usages (y compris les siens), on se rend compte à quel point il est aisé de nouer une dépendance à un appareil électronique, de personnaliser et d’aimer son ordinateur, d’y voir le prolongement de son propre cerveau ou encore de parler à son chien « comme si » c’était son ami, son frère ou son enfant. Mais le concept d’attachement est logiquement antérieur à toutes les choses auxquelles on s’attache. On peut s’attacher à son coussin et l’investir passionnellement sans pour autant le considérer comme un être.

Il existe des tas de moyens d’entretenir des relations avec des machines sans pour autant leur accorder le statut d’être vivant ou encore d’être humain, de même qu’il y a des tas de manières d’être machine qui n’ont jamais été explorées. Ce principe a l’avantage de permettre à la robotique de sortir de l’ère du bluff, du trucage, du malentendu et de l’équivoque dans lequel le test de Turing l’a plongée. Ce que montre l’observation, c’est que des machines dont on veut dissimuler les caractéristiques de machines ou qui entretiennent la confusion «ontologique» entre l’humain et la machine n’y arrivent pas longtemps. Les relations à des machines qui sont assumées comme telles sont aujourd’hui suffisamment riches mais elles ne sont jamais pensées en tant que telles3, sans le recours à l’humain ou à l’animal comme étalon de référence.

Un auteur peut nous aider à sortir de ce « mimétisme de pacotille » qui ne voit dans les machines que de pâles miroirs d’autre chose qu’elles-mêmes, alors que n’importe quel circuit électronique contient en réalité une bonne dose d’altérité. Il s’agit de Gustav Fechner, l’un des précurseurs de la psychophysique. Dans Nanna ou l’âme des plantes (1848), Fechner se demande si les plantes ont une âme. Et il en vient à l’hypothèse que si elles en ont une, elle se doit d’être d’une nature radicalement différente de la nôtre, en raison de leur constitution organique étrangère aux humains, de leur sensibilité à la lumière, à la température, à des choses très fragiles auxquelles les humains ne sont pas sensibles.

La vie des plantes se donne à percevoir peut-être aux plus réceptifs d’entre nous, nous pouvons être sensibles à ses changements, ses fluctuations. Mais nous ne pourrons jamais nous mettre à la place de ses organes de perception qui sont sensitivement d’une autre nature que ceux des animaux et a fortiori que ceux des hommes. Si on suit Fechner, les hommes sont souvent passés à côté du régime de vie propre aux plantes et mènent leur existence en passant totalement à côté. Fechner n’a jamais fait l’objet d’une relecture par les « trans-humanistes ». Pourtant, c’est l’un de ceux qui a le plus spéculé sur l’incomplétude organique perceptive de l’être humain et sur le fait que l’homme est coincé dans un organisme limité dans ses facultés. Mais il est bien loin du rêve de « l’homme augmenté », il invite à une « désanthropocentrisation » de l’homme au sein d’une nature débordante d’une vie psychique qui nous échappe.

Il ne suffit pas de constater que du cognitif est en train de s’incruster partout dans les artefacts, constituant un milieu imbibé de mémoire, de sensibilité, de conscience et d’intelligence, comme le montrent les travaux d’Edwin Hutchins, d’Andy Clark et de bien d’autres. Remplacez le terme de cognition par âme et ce sont tous les débats de la fin du XIXe siècle autour du « panpsychisme » qui refont surface, ceux que l’on se posait très précisément à propos des plantes et des animaux, et qui rejaillissent ici avec les objets techniques. A priori ces derniers devraient poser moins de problème, vu que leurs programmes et composants ne sont que ce qu’on décide d’y mettre. Mais en réalité, la question que se posait Fechner à propos des plantes (« en quoi ont-elles une âme différente de la nôtre ? ») acquiert une coloration singulière quand on la transpose dans l’univers des machines.

On ne sait jamais exactement ce qu’on fait quand on assemble des programmes en vue d’en faire un robot, car personne ne peut dire ce qu’être une machine veut dire, de même que personne ne peut se mettre à la place d’une plante. Et les robots sont tellement divers aujourd’hui qu’il y a potentiellement autant de manières de capter et de sentir, dans le règne robotique, que l’histoire naturelle a pu en déceler chez les animaux. Est-ce que, quand on fabrique un robot qu’on dote de capacités cognitives (de programmes, d’une mémoire, d’une capacité d’apprentissage, etc.), on ne fabrique pas quelque chose qui est au fond doté d’une personitude qui nous échappe en grande partie, un artefact qui a son mode d’appréhension propre (senseurs et capteurs) et qui n’est pas réductible à ce qu’on y met ou ce qu’on y projette ? Est-ce que le fait de considérer un robot « comme une personne » ne dépend pas du fait qu’on n’en comprend pas les capacités ou le comportement ?

Même lorsqu’elle vise la ressemblance, la robotique débouche sur toujours plus de dissemblance. Voilà qui oblige à repenser légèrement la place des prophéties en robotique. Celles-ci ne sont pas faites pour se réaliser, elles sont faites pour être prononcées. Les effets d’annonce orientent les projets de conception. À force d’être affirmées et réaffirmées, on finit par prendre ces propositions pour inévitables. Si on ne veut pas la redoubler, on n’a pas d’autre choix face à cette pulsion prophétique que de lui opposer une « contre-prophétie » un peu moins convenue, au nom de la diversité, de la richesse et de la complexité des usages.

Le début du XXIe siècle est marqué par la prolifération des « circuits faibles », ces relations oscillatoires et discontinues, entretenues avec des machines incertaines, souvent défaillantes et aux statuts aussi divers et gradués qu’il y a d’attachements possibles. Ce monde-là dans lequel nous sommes empêtrés est sans doute bien plus propice à des mutations de type « ontologique » que les décors fluides et édulcorés dans lesquels les chroniques de robotisation annoncée aiment à nous transporter.

Références

Alan Ross Anderson (dir.) (1983), Pensée et Machine, Champ Vallon, Paris

Joffrey Becker (2011), « Récursions chimériques : De l’anthropomorphisme des robots autonomes à l’ambiguïté des relations envers l’image du corps humain », Gradhiva, no13, Pièges à voir, Pièges à penser, p. 112-129

Joffrey Becker (2012) « L’écologie prospective de la robotique », Tracés, no22, Écologiques, Enquêtes sur les milieux humains, p. 125-137

Joffrey Becker (2014), Humanoïdes, Expérimentations croisées entre arts et sciences, Presses Universitaires de Paris Ouest, Nanterre (à paraître)

Valentino Braitenberg (1984), Vehicles : Experiments in synthetic psychology, MIT Press, Cambridge, MA

Rodney Brooks (1991), “Intelligence without representation”, Artificial Intelligence 47 (1-3), p. 139-159

Andy Clark (2008), Supersizing the mind : Embodiment, action, and cognitive extension, Oxford University Press, Oxford and New York

Andy Clark et David J. Chalmers (1998), The extended mind. Analysis 58, p. 7-19

Philip K. Dick (1972), « Androïde contre Humain », in Si ce monde vous déplaît… et autres écrits, Paris : L’Éclat (1998, pour l’édition française)

Gustav Fechner (1848), Nanna oder über das Seelenleben der Pflanzen, Leopold Voss, Leipzig

Emmanuel Grimaud (2008), Dieux et robots, Apt : L’Archange Minotaure

Emmanuel Grimaud et Zaven Paré (2011), Le jour où les robots mangeront des Pommes, Petra, Paris

Emmanuel Grimaud et Denis Vidal (2012), « Aux frontières de l’humain, Pour une anthropologie comparée des créatures artificielles », in Robots étrangement humains, Gradhiva, 15 | 2012, p. 4-25

Emmanuel Grimaud (2012), « Androïde cherche humain pour contact électrique », Gradhiva, 15, p. 76-101

Emmanuel Grimaud (2012), « Pour quelques secondes de confusion ontologique. Echecs et réussites du contact dans une expérience de télé-robotique », in Actes du colloque La marionnette : objet d’histoire, œuvre d’art, objet de civilisation, INHA, 6-7 décembre 2012

Keith Gunderson (1964), « The Imitation Game », Mind, 73, p. 234-45

Edwin Hutchins (1995), Cognition in the Wild, MIT Press, Cambridge, MA

Jacques Lafitte (1932), Réflexions sur la science des Machines, Vrin, Paris, 1972 (pour la réédition)

David Levy (2008), Love and Sex with robots, Londres : Harper Perennial

Octave Mannoni (1963), « Je sais bien mais quand même… », in Clefs pour l’Imaginaire ou l’autre scène, Seuil, Paris (édition 1969)

Masahiro Mori (1970), « Bukimi no tani/The uncanny valley ». Energy, 7 (4), p. 33-35

Masahiro Mori (1992), The Buddha in the Robot. ARobot Engineer ́s Thoughts on Science and Religion, Kosei, Tokyo

Masahiro Mori (2005), « On the Uncanny Valley. », Proceedings of the Humanoids-2005 workshop: Views of the Uncanny Valley. 5 décembre 2005, Tsukuba, Japon

Zaven Paré (2011), « Saya ou l’impossible virtuosité », Ateliers d’anthropologie [En ligne], p. 35

Marie-Christine Pouchelle (2007), « Une tranche d’histoire de chirurgie cardiovasculaire vue par l’ethnologue », Perspective soignante 30, p. 4-38

Marie-Christine Pouchelle (2007), « La robotique en chirurgie cardiaque : avancées technologiques et vacillements socioprofessionnels », Communications 81 (Corps et techniques, Thierry Pillon et Georges Vigarello – eds), p. 183-200

Alan Turing (1950), « Computing machinery and intelligence », Mind, 36, p. 433-460

Jakob von Uexküll (1956), Milieu animal et milieu humain, Rivages, Paris (2010 pour l’édition française)

Denis Vidal (2007), « Anthropomorphism or sub-anthropomorphism? An anthropological approach to gods and robots », Journal of the Royal Anthropological Institute, vol. 13, no4, p. 917-933

Denis Vidal (2011), « Robotique et principe de virtuosité », Ateliers d’anthropologie, no35, « Virtuosités, ou Les sublimes aventures de la technique », p. 1-26

Denis Vidal (2012), « Vers un nouveau pacte anthropomorphique ! Les enjeux anthropologiques de la nouvelle robotique », Gradhiva, no15 (n. s.), « Robots étrangement humains », p. 54-75

Denis Vidal et Philippe Gaussier (2014), « Un robot comme personne. Ontologies comparée et expérimentale au musée du quai Branly », Terrain, no62, p. 152-165

Eduardo Viveiros de Castro (2009), Métaphysiques cannibales, PUF, Paris

 

1 On retrouve cette idée chez Jacques Lafitte, Réflexions sur la science des machines (1932), Vrin, Paris, 1972.

2 On ne peut citer ici tous les travaux d’ethnographie consacrés à des laboratoires de robotique. Citons les travaux pionniers en France de Marie-Christine Pouchelle, Joffrey Becker, Denis Vidal, Zaven Paré. Le numéro de Gradhiva consacré aux « Robots étrangement humains » (2012) fait le point sur les conditions dans lesquelles la robotique est devenue un objet anthropologique à part entière.

3 Voir sur ce point le livre que l’on a écrit avec Zaven Paré qui relate les expériences faites autour du Geminoid d’Ishiguro : Le Jour où les robots mangeront des Pommes, Petra, Paris, 2011.

Grimaud Emmanuel

Emmanuel Grimaud est anthropologue, chercheur au CNRS. Il est l’un des coordinateurs de la plateforme de recherche Artmap (www.artmap-research.com). Il a écrit plusieurs ouvrages sur la robotique, en Inde et au Japon, notamment Dieux et robots (L’Archange Minotaure, 2009), Le Jour où les robots mangeront des Pommes. Conversations avec un Geminoid (avec Zaven Paré, Petra, 2011) et Robots étrangement humains (avec Denis Vidal, Gradhiva n°15, 2012).