Il y a du soin dans l’air. Robots soignants et environnements de soin

1. Introduction

Quelles difficultés peut soulever l’application du terme de « soignant » à des robots.1 Des robots peuvent-ils vraiment prendre soin ? Des robots médicaux peuvent-ils prendre part à la constitution d’environnements de soin ? Des systèmes robotiques autonomes, sont-ils vraiment capables de « prendre soin » au sens où nous nous représentons nous-mêmes prendre soin d’un autre être vivant ou agir dans une certaine situation en y étant intérieurement attentifs ? En fait, nous pensons que la question la plus pertinente concernant le soin en général est celle de la constitution d’environnements de soins, et non pas celle des attitudes, des états ou des intentions des agents.

Nous partons du présupposé qu’on répond couramment et intuitivement « non » à cette question: des agents artificiels de soins médicaux peuvent-ils prendre soin au vrai sens du terme, ou contribuer activement à la constitution d’un environnement de soin ? Il est néanmoins utile de mettre en évidence les arguments emblématiques de cette position dans la littérature, et de souligner rapidement ce qui nous semble en constituer la colonne vertébrale. Sparrow et Sparrow [9] disent que :

« Dans la plupart des cas, quand les gens se sentent heureux, c’est parce qu’ils croient (à tort) que le robot a des propriétés qu’il n’a pas. Cette croyance peut être consciente, par exemple dans les cas où les gens affirment que les robots sont gentils et prennent vraiment soin d’eux, ou sont contents de les voir, etc. Elle peut aussi être une réponse et une réaction inconscientes, ou préconscientes, au «comportement» du robot (Brezeal, 2002, ch. 2). C’est ce type d’illusion qui est la cause du fait que les gens se sentent aimés ou soignés par des robots, et font ainsi l’expérience des avantages qu’il y a à ce qu’on prenne soin de vous. »

Dans ce passage, il est significatif que Sparrow et Sparrow reconnaissent bien que le patient peut effectivement faire l’expérience du fait qu’on prend soin de lui. Ce qu’ils objectent à cela, c’est que cette expérience repose sur une tromperie, et sur l’attribution de certaines propriétés, à savoir des états mentaux et émotionnels internes, à un agent artificiel qui en réalité ne les a pas. Nous discuterons plus en détail cette question de la tromperie dans la suite du texte2. Il suffit pour l’instant d’expliquer rapidement pourquoi nous pensons qu’on considère habituellement que de telles expériences de relations de soin se fondent sur une tromperie. Cette affirmation nous paraît fondée sur les prémisses suivantes: 1. Des agents artificiels de soins médicaux sont incapables de prendre soin, parce que les « relations de soin » et les « environnements de soin » n’impliquent pas seulement un comportement fonctionnel, mais des relations émotionnelles entre les agents. 2. Les relations émotionnelles requièrent des états émotionnels internes ou conscients qui peuvent être attribués (s’ils ne sont pas toujours auto-attribués) à un agent. 3. Les agents artificiels n’ont pas les états conscients/émotionnels requis, ils sont donc incapables d’émotions. Par conséquent, les agents artificiels de soins médicaux ne peuvent pas vraiment prendre soin et leur participation à la constitution d’environnements de soins est à suspecter, voire à exclure totalement.

Contre cet argument, nous soutenons que les relations de soin et, surtout, les environnements de soin, ne dépendent pas d’états émotionnels, cognitifs ou intentionnels internes. Bien au contraire, nous affirmons qu’un environnement de soin est un type particulier de contexte ou de milieu expressif et comportemental, qui se caractérise par certains types de relations réciproques, et par l’attention à la vulnérabilité, à la douleur et au bien-être des agents. Et surtout, nous soutenons que la constitution de ce type d’environnement ne dépend pas des états conscients ou des intentions des agents qui le constituent, mais plutôt de certains types de mouvements qui expriment le « soin » dans un contexte environnemental et comportemental particulier. Savoir quels mouvements spécifiques sont constitutifs d’un environnement de soin dépend probablement autant d’une sémiotique universelle ou relative aux espèces que de conditions particulières dans telle situation donnée. Nous n’avons pas le projet d’identifier ces conditions dans ce texte.

Ainsi, un environnement de soin n’est jamais purement fonctionnel, pas plus qu’il ne dépend des états internes des agents qui le constituent ou qui y participent. Les relations significatives qui sont nécessaires à la constitution d’un environnement de soin sont entièrement contenues ou rendues manifestes dans un mouvement externe. La signification est une propriété qui émerge à partir de mouvements faits dans un environnement. Nous pensons donc qu’il est possible qu’un agent artificiel de soins médicaux puisse théoriquement fonctionner comme agent constitutif d’un environnement de soin, à condition qu’il soit capable des mouvements expressifs et réciproques requis. Nous qualifierons cette position d’« Hypothèse Environnementale ». À notre avis, l’Hypothèse Environnementale est compatible avec trois des quatre « éléments éthiques du care » posés par Tronto [11] : « l’attention », « la compétence » et «la réceptivité». L’élément de «responsabilité» fait davantage difficulté pour considérer les agents artificiels de soins médicaux comme des agents constitutifs d’un environnement de soin. Dans la section suivante, nous allons développer les fondements théoriques de l’Hypothèse Environnementale (section 2). Puis nous examinerons trois objections possibles à l’Hypothèse Environnementale : le soin est orienté vers l’avenir (section 3), le soin implique la responsabilité (section 4), et l’Hypothèse Environnementale cautionne la tromperie qui a été mise en évidence par Sparrow et Sparrow (section 5). Dans la dernière section, nous examinerons certaines études empiriques qui à la fois soutiennent et fragilisent l’Hypothèse Environnementale.

2. Il y a du soin dans l’air

L’Hypothèse Environnementale stipule que ce qui importe dans une relation de soin, ce ne sont pas les états internes des agents qui participent à la relation, mais un contexte signifiant. Ce contexte est produit par des mouvements expressifs: la signification est dans le mouvement et dans les différences essentielles qu’un mouvement imprime à une signification imprégnée par le contexte comportemental. Une des manières de réfléchir à cela serait d’utiliser l’argument de Gregory Bateson selon lequel « l’unité élémentaire d’information est la différence qui fait une différence» [1, p. 457-459]. Cela signifie que certaines différences, au sens de différences physiques, de différences matérielles ou de différences spatiales dans un environnement, vont opérer un changement dans les relations signifiantes qui se manifestent dans cet environnement; que d’autres ne compteront pas ; que les premières sont celles qui véhiculent bien une information ou une signification3. Ainsi, notre hypothèse est une hypothèse externaliste tant du point de vue de la signification que du point de vue du soin.

L’exemple des agents artificiels de soins médicaux constitue une excellente expérience de pensée en général pour appuyer l’hypothèse que des états conscients internes ou des émotions ne sont pas nécessaires pour constituer des environnements de soin. L’aspect négatif de l’Hypothèse Environnementale peut donc être formulé comme une réfutation de l’idée que les états internes sont nécessaires aux relations de soin. Notre réfutation, dans ses grandes lignes, consiste dans le raisonnement suivant : 1. Les états émotionnels internes ne sont pas accessibles dans les relations entre les êtres humains, c’est-à-dire que je n’ai pas accès aux états mentaux et émotionnels internes d’autrui (à supposer que de tels états internes existent bien). 2. Des êtres humains qui n’ont pas accès aux états internes d’autrui peuvent constituer des environnements et entretenir des relations de soin. Nous pouvons même aller plus loin, et dire que même des êtres humains et des animaux non-humains peuvent constituer des environnements et entretenir des relations de soin, et ce même si les animaux ont des états internes qu’ils ne peuvent pas s’auto-assigner, c’est-à-dire s’ils n’entretiennent pas une relation auto-réflexive à ces états internes. 3. Étant donné que nous acceptons l’existence d’environnements et de relations de soin entre des êtres humains et des animaux non-humains, donc dans des cas où il n’y a pas d’accès possible aux états internes des acteurs, il n’y a pas de raison d’exclure la possibilité d’environnements de soin constitués par des relations réciproques entre des êtres humains et des agents artificiels de soins médicaux. Nous ajoutons la mise en garde suivante à cette troisième condition: il faut que l’agent artificiel puisse correctement effectuer ou imiter les mouvements nécessaires à la constitution d’un environnement de soin.

Cette mise en garde pose la question de la tromperie, que nous aborderons plus tard, mais plus fondamentalement nous pensons que cette mise en garde, dans la mesure où elle parle d’« imiter », peut nous induire en erreur. Et ce parce qu’ajouter cette mise en garde, et plus particulièrement introduire le terme d’« imiter », pourrait mener à une interprétation de notre position trop cartésienne, ou qui l’assimile à une « inférence par analogie ». Dans le premier cas, des sons externes (langage) ou des gestes seront compris comme les signes externes d’états internes (les pensées). Des théories comme celle-ci soutiennent que le sujet pensant a un « accès privilégié » à ses propres états mentaux et que cela justifie qu’il s’auto-attribue des croyances, des sensations, des désirs, etc. Cette justification manque complètement dans l’expérience que nous avons d’autrui. Notre expérience des états mentaux d’autrui est donc médiatisée par les signes extérieurs d’états intérieurs, c’est-à-dire par le mouvement et les sons produits par son corps. Sur la base de ces signes extérieurs, nous faisons un jugement inférentiel relatif aux états intérieurs d’autrui. Ce jugement se fonde sur une analogie entre nous, dont les états internes correspondent aux états externes, et autrui. Ce qui nous intéresse particulièrement ici, c’est le fait que les processus de formation de sens qui comptent pour les relations de soin sont privés et internes au sujet. L’argument par inférence analogique a été fortement critiqué, et c’est peut-être Max Schéler qui en a fait la critique la plus pertinente, mais il semble que l’idée selon laquelle ce sont nos états mentaux qui comptent continue à avoir beaucoup d’autorité, comme l’illustre le fait que la question de la tromperie inquiète encore beaucoup de gens.

Dans un tel cas, un agent de soin artificiel pourrait fournir tous les signes nécessaires du fait qu’il a les états mentaux requis. Ces états pourraient même suffire à établir l’environnement ou les relations de soin, mais ils en resteraient au niveau de l’imitation. Ils ne refléteraient pas réellement les pensées ou les sentiments de l’agent artificiel de soins médicaux, puisque ce dernier n’aurait ni pensée ni sentiment. Cela peut effectivement soulever le problème de la tromperie. Le sujet humain dont l’agent artificiel prend soin pourrait lui attribuer des états internes alors qu’il se contente d’« exécuter des mouvements ». Mais comme cela se produit dans des rapports entre êtres humains, et que nous n’excluons pas pour autant la possibilité qu’ils constituent un environnement de soin, il n’est pas évident que ce problème soit vraiment sérieux lorsqu’il concerne un agent artificiel de soins médicaux.

Pour revenir au sujet de cette section, nous refusons d’admettre que c’est de cette manière que fonctionne la formation de signification dans des contextes intersubjectifs. Le cœur de notre position, c’est l’idée selon laquelle les structures de sens pertinentes sont formées dans l’espace entre des sujets en mouvements. La conséquence de cette idée est potentiellement assez importante. Il ne s’agit pas simplement de dire que notre expérience des relations signifiantes à autrui ne se fonde pas sur une inférence relative aux états internes d’autrui ; mais plutôt de dire que ces états internes ne jouent probablement pas un rôle primordial dans la formation de ces mêmes relations. Cette idée est très bien illustrée par le philosophe français Maurice Merleau-Ponty :

« Supposons que je sois en présence de quelqu’un qui, pour une raison ou pour une autre, est violemment irrité contre moi. Mon interlocuteur se met en colère, et je dis qu’il exprime sa colère par des paroles violentes, des gestes, des cris… Mais où donc est cette colère ? On me répondra : elle est dans l’esprit de mon interlocuteur. Cela n’est pas très clair. Car enfin cette méchanceté, cette cruauté que je lis dans les regards de mon adversaire, je ne puis les imaginer séparées de ses gestes, de ses paroles, de son corps. Tout cela ne se passe pas hors du monde, et comme dans un sanctuaire reculé par-delà le corps de l’homme en colère. C’est bel et bien ici, dans cette pièce, et en ce lieu de la pièce que la colère éclate, c’est dans l’espace entre lui et moi qu’elle se déploie [8, p. 83]. »

Cela rapproche notre position de ce qu’on appelle aujourd’hui l’« enactivism »4. L’enactivism insiste sur le fait qu’une cognition située et encorporée organise et structure l’esprit. Evan Thompson [10] donne un utile résumé de cette position : « Les processus cognitifs émergent à partir d’une causalité non-linéaire mais circulaire d’interactions sensorimotrices continuelles qui impliquent le cerveau, le corps et l’environnement. La métaphore centrale pour cette approche de l’esprit est celle d’un système dynamique incorporé dans le monde plutôt que celle d’un réseau neuronal dans la tête » (p. 11). Cela nous semble mettre en évidence les caractéristiques de la position que nous défendons ici : les structures de sens se forment dans le monde à travers l’implication de l’organisme dans son environnement. Cette implication se produit généralement « en dessous » du niveau de la conscience réflexive active. Le fait que nous insistions sur l’implication de tout l’organisme dans le contexte signifiant qui est son environnement comportemental rapproche également notre position du holisme des « Gestalt biologistes », comme Kurt Goldstein par exemple [6]. Ce qui compte ici, encore une fois, c’est le fait que le contexte comportemental soit un contexte signifiant, modulé par des différences ou des changements saillants dans l’environnement qui devraient principalement être compris comme des modulations de sens. Quand nous parlons de mouvement expressif, nous voulons précisément parler des mouvements qui produisent un changement saillant dans l’environnement compris comme un contexte signifiant.

Reste à savoir quel type de mouvement expressif est particulièrement constitutif d’un environnement de soin. Nous pensons ici que la condition minimale pour la constitution d’un environnement de soin implique à la fois des mouvements qui manifestent une attention et une réponse appropriée à la perception d’expressions ou de signes de vulnérabilité, et des mouvements qui font qu’on peut raisonnablement compter sur la permanence de cette attention et de cette réponse. Théoriquement, nous ne voyons pas en quoi un agent artificiel de soins médicaux ne pourrait pas remplir cette condition minimale. Savoir si le mouvement en question appartient à une sorte de biosémiotique universelle, ou au moins relative aux espèces, si elle appartient à un contexte culturel plus particulier ou si elle appartient aux deux à la fois reste une question ouverte, que nous n’avons pas le projet de traiter dans cette présentation.

Dans les sections 3, 4 et 5, nous allons adresser plusieurs objections possibles à notre Hypothèse Environnementale.

3. Première objection : Soin et temps, le soin est orienté vers l’avenir

Une des objections qu’on pourrait adresser à l’Hypothèse Environnementale et à ce qu’elle défend concernant les agents artificiels de soins médicaux est la suivante : l’attitude de soin est souvent tenue pour la cause d’une syntonie spécifique ou d’une orientation vers l’avenir, et plus particulièrement vers le bien-être futur des agents dont l’activité expressive constitue l’environnement de soin. Cette compréhension de la dimension future du soin semble venir en partie des analyses de Heidegger qui font du soin la base de la structure temporelle de la temporalité humaine. Les êtres humains héritent d’un environnement signifiant et la manière dont ils agissent à son égard manifeste une certaine orientation vers l’avenir, même si elle ne consiste pas nécessairement en une planification explicite du futur, ou même en une simple projection. Appliquée au contexte des agents artificiels de soins médicaux, cette attitude sépare le soin de la maintenance (comprise comme une forme de travail technique), qui se concentre sur la réparation de relations fonctionnelles spécifiques entre l’organisme et son environnement. On pourrait alors objecter que, puisqu’un agent artificiel de soins médicaux ne partage a priori pas la structure de syntonie temporelle qu’on peut attribuer aux êtres humains, il n’est pas capable de manifester le comportement requis pour constituer un environnement de soin.

Cette objection est assez similaire à l’opposition initiale contre les agents artificiels de soins médicaux, que nous avons rapidement présentée au début. Elle suppose qu’un état interne, en l’occurrence une orientation temporelle du processus conscient, est nécessaire à la manifestation d’un certain type de comportement extérieur. Notre réponse à cette objection prend donc la même forme que l’argument général que nous avons esquissé dans la section précédente. Nous soutenons que le comportement expressif qui se manifeste dans un environnement de soin porte nécessairement les marques caractéristiques d’un souci de l’avenir. On peut décrire ces marques en termes d’attente d’une attention future à la vulnérabilité et à la réciprocité. Il est nécessaire que le comportement d’un agent artificiel de soins médicaux puisse correspondre à un certain critère déterminant ce qu’il est raisonnable de prévoir, comme nous l’attendrions d’un organisme biologique doté d’une complexité suffisante pour co-constituer activement un environnement de soin. Ainsi, la question de l’orientation du soin vers le futur ne pose, à notre avis, aucune difficulté particulière à l’Hypothèse Environnementale.

4. Deuxième objection : Le problème
 de la responsabilité. Un solide concept de responsabilité requiert une conscience temporelle et une vulnérabilité
 à la sanction.

La question de la responsabilité constitue une objection plus sérieuse. Cette objection repose sur le fait que la constitution d’un environnement de soin requiert une expression comportementale manifeste de l’obligation ou de la responsabilité. Une des raisons qui font que cela devient un problème (il peut y en avoir d’autres), c’est qu’il parait probable qu’une des conditions nécessaires de la responsabilité soit une sensibilité ou une vulnérabilité à la sanction dans le cas où une responsabilité ou une obligation n’a pas été respectée. Cependant, la sensibilité à la sanction semble requérir que l’entité ait un souci existentiel (conscient ou non) portant sur la perpétuation de sa propre existence ou qui la pousse à éviter la douleur/la souffrance. Et il est probable que cette forme de souci soit limitée aux systèmes vivants.

On peut résoudre ce problème à la manière de l’Hypothèse Environnementale en général. Se soucier de la perpétuation de son existence, dans la mesure où c’est une forme d’attitude intérieure, n’est pas une condition nécessaire à la manifestation de la responsabilité. Celle-ci est plutôt une question de comportement expressif qui n’a pas besoin d’être corrélé à des états intérieurs, et qui en fait n’a même pas besoin de supposer des états intérieurs. Cela ne répond pas à l’objection suivante : alors que la vulnérabilité à la sanction peut être une condition nécessaire de la responsabilité, il n’est pas facile de déterminer quel type de comportement manifeste cette vulnérabilité. De même, il ne semble pas non plus que, quel que soit le comportement dont on considère qu’il manifeste la responsabilité dans le scénario précédent, il corresponde au critère de ce que nous entendons habituellement par le terme de « responsabilité ». On peut débattre de la question de savoir si considérer qu’un certain comportement est « responsable », sans qu’il s’accompagne de l’état intérieur correspondant, c’est-à-dire d’une sensibilité à l’obligation ou aux raisons correctes pour agir, correspond à ce que la plupart des gens veulent dire lorsqu’ils utilisent le terme « responsable ».

Si l’on accepte que la responsabilité pose bien difficulté à l’Hypothèse Environnementale, une autre réponse plus facile se présente : on peut tout simplement considérer que la responsabilité n’est pas un élément éthique des environnements de soin. Le travail éthique qui est fait par les concepts de responsabilité et/ou d’obligation est déjà fait lorsqu’on a établi un critère qui permet de prévoir raisonnablement le comportement expressif d’agents réciproquement impliqués dans la constitution d’un environnement de soin. Autrement dit, une attente raisonnable du fait que la relation de soin va se poursuivre est suffisante.

5. Troisième objection : La tromperie

Dans une certaine mesure, nous avons déjà répondu à la question de la tromperie dans la section 2, mais elle mérite qu’on ajoute ici quelques remarques supplémentaires. Nous pensons que l’une des conséquences les plus radicales de l’idée que nous développons consiste à dire qu’il n’y a pas de tromperie dans le potentiel environnement de soin constitué par un agent artificiel de soins médicaux et un être humain. Les émotions et les relations de soin sont réelles, même si l’agent artificiel de soins médicaux n’a pas conscience de la présence de structures de sens qu’il participe activement à constituer. Il n’est probablement pas nécessaire aux personnes dont il prend soin d’adopter notre thèse externaliste pour considérer les relations de soin comme étant « réelles », au moins dans le sens phénoménologique de « véritables expériences », même si cela peut bien sûr les y aider. L’Hypothèse Environnementale est probablement plus proche de l’expérience quotidienne que ne le sont ses opposants. Les êtres humains développent un attachement et font l’expérience d’émotions comme l’empathie dans toutes sortes de situations où il est clair que l’autre agent n’a pas les états avec lesquels on peut éprouver de l’empathie. L’émotion humaine se montre à la fois solide et légère.

Il est également important de remarquer que les êtres humains qui sont en charge de la prise de soin peuvent également nous tromper lorsqu’ils montrent leurs émotions. Dans sa recension d’« Emotion Work », Zapf [14] remarque que les infirmières sont impliquées à la fois dans un « travail émotionnel », dans lequel elles contrôlent leurs réponses émotionnelles, et dans un « travail de sympathie », dans lequel elles essaient de faire aller les émotions d’un patient dans la direction souhaitée pour faciliter leur première tâche, comme, par exemple, une infirmière qui prend une voix apaisante pour calmer un enfant effrayé. Il est reconnu [4] que le degré auquel on impose aux travailleurs de supprimer leurs émotions réelles pour faire leur travail contribue au stress et à l’épuisement5 au travail. On reconnaît que, depuis que beaucoup de professionnels de la santé se retrouvent à la périphérie d’événements extrêmement traumatiques, ils sont nombreux à souffrir d’une « usure de la compassion » [13], et peuvent supprimer leurs propres sentiments ou éprouver des sentiments d’impuissance et de colère lorsqu’ils voient souffrir les autres. Il est donc clair que l’environnement de soin constitué par des relations entre êtres humains peut, par nécessité, se caractériser par des faux-semblants émotionnels.

6. Conclusions 
sur le modèle de soin environnemental

Par conséquent, les agents artificiels peuvent « prendre soin » si nous reconnaissons que l’interface comportementale qui indique les états intérieurs est tout ce que nous pouvons connaître des autres, qu’ils soient des êtres humains ou des machines. Que la façon dont nous nous impliquons avec autrui se fonde sur une stimulation interne, sur le fait d’avoir une théorie de l’esprit ou sur d’autres mécanismes tels qu’ils ont été recensés par Gallagher et Hutto [5], les auteurs ne connaissent aucun mécanisme physique qui nous donnerait une expérience directe des états intérieurs de nos partenaires. De plus, nous avons maintenu que l’interface comportementale génère des structures de sens qui donnent un contenu aux états intérieurs : le comportement, et plus particulièrement le mouvement, sont primordiaux dans la production de signification requise par un environnement de soin. La conséquence de tout cela, c’est que nous ne voyons pas de raison pour exclure que les agents artificiels de soins médicaux puissent jouer un rôle actif dans la production et le maintien d’un environnement de soin.

Y a-t-il une dichotomie entre cette position philosophique et l’expérience ? Étant donné que les comportements des machines imitent de mieux en mieux la sémantique des interactions humaines, allons-nous admettre leur véracité de même que nous admettons que nos partenaires humains sont investis émotionnellement dans notre bien-être, ou allons-nous toujours « savoir » que les machines font semblant comme nous « savons » que les êtres humains sont vraiment investis ? Les études neuronales ont donné certaines preuves du fait que, alors que nos réponses émotionnelles à une émotion artificielle pourraient être similaires quoique modérées [3], les interactions avec des partenaires artificiels ne stimulent pas les mêmes aires cérébrales que celles qu’on a tenues pour responsables de l’inférence d’états mentaux à l’égard de compagnons humains, c’est-à-dire le cortex préfrontal médian et la jonction temporo-pariétale droite [2].

Cela signifie peut-être qu’il nous est impossible de croire que des agents artificiels de soins médicaux prennent vraiment soin de nous, ou se sentent responsables de notre bien-être ; ou qu’une telle croyance devrait s’appuyer sur davantage de ressemblance avec le comportement humain, ou sur un changement d’attitude à l’égard de tels agents dans notre société. Certaines études, en l’occurrence [12], ont montré que les enfants qui interagissaient avec les « artefacts relationnels » les plaçaient dans une classe d’être intermédiaire entre les vivants et les non-vivants. D’autres études [7] ont donné des preuves importantes du fait que les robots domestiques «incarnaient également certains attributs d’animaux vivants, comme le fait d’avoir des états mentaux ». Peut-être croirons-nous demain que les agents artificiels de soins médicaux prennent vraiment soin de nous, quand les enfants d’aujourd’hui seront devenus grands ?

Traduit de l’anglais par Mona Gérardin-Laverge

Références

[1] Gregory Bateson, « Steps to an ecology of mind : Collected essays in anthropology, psychiatry, evolution, and epistemology », University of Chicago Press, 1972

[2] Thierry Chaminade, Delphine Rosset, David Da Fonseca, Bruno Nazarian, Ewald Lutcher, Gordon Cheng & Christine Deruelle, « How do we think machines think ? an fmri study of alleged competition with an artificial intelligence », Frontiers in human neuroscience, 6, 2012

[3] Thierry Chaminade, Massimiliano Zecca, Sarah-Jayne Blakemore, At-suo Takanishi, Chris D Frith, Silvestro Micera, Paolo Dario, Giacomo Rizzolatti, Vittorio
Gallese, and Maria Alessandra Umilta’, « Brain response
to a humanoid robot in areas implicated in the perception of human emotional gestures », PloS one, 5 (7), e11577, 2010

[4] Cynthia L. Cordes and Thomas W. Dougherty,
« A review and integration of research on job burnout », Academy of Management Review, 18, 1997, p. 621-656

[5] Shaun Gallagher and Daniel Hutto, « Understanding others through primary interaction and narrative practice », The shared mind : Perspectives on intersubjectivity, 2008,
p. 17-38

[6] Kurt Goldstein, The organism : A holistic approach to biology derived from pathological data in man, Cambridge : MIT Press, 1995

[7] Gail F Melson, Peter H Kahn Jr, Alan Beck, and Batya Friedman, « Robotic pets in human lives : Implications
for the human – animal bond and for human relationships with personified technologies », Journal of Social Issues, 65 (3), 2009, p. 545-567

[8] Maurice Merleau-Ponty, The world of perception, Routledge, 2004

[9] Robert Sparrow and Linda Sparrow, « In the hands
of machines ? the future of aged care », Minds and Machines, 16 (2), 2006, p. 141-161

[10] Evan Thompson, Mind in life : Biology, phenomenology, and the sciences of mind, Harvard University Press, 2007

[11] Joan Tronto, « Feminist theory : a philosophical anthology », chapter A Ethic of Care, p. 251-263, Malden : Blackwell Publishing, 2005

[12] Sherry Turkle, Cynthia Breazeal, Olivia Daste ́, and Brian Scassellati, « Encounters with kismet and cog : Children respond to relational artifacts », Digital Media : Transformations in Human Communication, 2006, p. 1-20

[13] Elizabeth A Yoder, « Compassion fatigue in nurses », Applied Nursing Research, 23 (4), 2010, p. 191-197

[14] Dieter Zapf, « Emotion work and psychological well-being : A review of the literature and some conceptual considerations », Human Resource Management Review,
12 (2), 2002, p. 237-268

 

1 Nous traduisons « care » (nom) par « soin » ou « prise de soin » et « care » (verbe) par « prendre soin » (NdT)

2 Nous sommes reconnaissants à une recension anonyme d’avoir mis en évidence l’importance de l’argument de la tromperie.

3 On peut faire une différence entre les termes d’ « information » et de « signification », mais Bateson n’utilise pas le terme d’«information» dans le sens limite d’une entropie négative.

4 Nous conservons le terme anglais pour plus de clarté, et parce que sa traduction en français ne fait pas consensus : faut-il le traduire par « enaction » (Pierre Lavoie), par personnifiaction » (Jérôme Proulx) ? (NdT).

5 En anglais « burnout » (NdT).

Meacham Darian

Darian Meacham est maître de conférences en philosophie à l’University of West England à Bristol et chargé de recherche en éthique et innovation responsable à BrisSyn-Bio (Centre de biologie synthétique à l’Université de Bristol). Ses intérêts principaux relèvent de la philosophie politique et bioéthique.

Studley Matthew

Matthew Studley est maître de conférences en ingénierie et mathématiques à l’University of West England à Bristol et chargé de recherche à BRL (Bristol Robotics Laboratory). Il est expert en robotique, machine learning, intelligence artificielle et programmation informatique.